Vous utilisez un VPS, mais vous n’avez pas encore configuré sa sécurité ? C’est un problème à prendre au sérieux puisque votre serveur est attaqué plusieurs milliers de fois par jour. Next vous donne quelques bases pour mettre à jour les composants, les conteneurs Docker, surveiller les tentatives de connexions, etc.
Un VPS, c’est aussi un serveur hébergé chez une société tierce et directement exposé sur Internet. Il mérite donc une attention particulière au niveau de la sécurité, surtout s’il dispose de vos données (personnelles). À titre d’exemples, nos VPS sont attaqués en moyenne 10 000 fois par jour sur le port 22 (SSH).
Dans ce tuto, nous allons passer en revue quelques règles simples à mettre en place pour les mises à jour et bloquer ceux qui tenteraient de passer. Attention, cela ne remplace pas l’expertise d’un sysadmin car il existe évidemment de nombreuses autres bonnes pratiques à mettre en place, notamment une surveillance constante des logs, du fonctionnement du serveur et des applications.
Suivant l’importance des données que vous souhaitez mettre sur un serveur exposé sur Internet, il faudra passer la seconde avec des serveurs « gérés » (managed) avec des professionnels, s’occupant de l’installation et des mises à jour.
Le problème des versions non-LTS de Ubuntu (9 mois de support)
Dans notre cas, nous sommes avec Ubuntu 25.04 (la dernière disponible chez OVHcloud actuellement pour notre gamme de VPS), un problème car cette version n’est plus officiellement maintenue. Nous devons donc passer en 25.10, en attendant la 26.04 LTS qui sera maintenue plusieurs années.
Le choix d’une version LTS est intéressant pour cela, car les versions classiques ne sont maintenues que pendant neuf mois). Une solution aurait été d’installer le serveur dès le début en 24.04 (LTS), une version proposée par OVHcloud. Si vous installez votre VPS pour la première fois, partir sur une LTS peut être une bonne idée.
La commande sudo do-release-upgrade permet de se mettre à jour notre Ubuntu… sauf que non, le système nous répond : « Your Ubuntu release is not supported anymore. For upgrade information, please visit: http://www.ubuntu.com/releaseendoflife. Please install all available updates for your release before upgrading ».
Pour passer à Ubuntu 25.10, nous devons donc d’abord mettre à jour toutes nos applications, avec les commandes sudo apt update && sudo apt upgrade, puis relancer sudo do-release-upgrade pour le système d’exploitation en lui-même. Cette fois-ci ça marche !
Attention, à la fin nous avons eu un message : « System upgrade is complete. Restart required. To finish the upgrade, a restart is required ». Un reboot plus tard, retour à PuTTY et nous voilà bien avec Ubuntu 25.10. Reste maintenant plus qu’à attendre Ubuntu 26.04 LTS pour migrer sur cette version, et rester ensuite quelques années dessus (cinq ans actuellement, avec une LTS tous les deux ans).
Des mises à jour (de sécurité) installées automatiquement
Il reste 84% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Dans un communiqué, Adobe explique que Shantanu Narayen démissionnera de son poste de CEO une fois que son successeur sera trouvé. Il restera par contre président du conseil d’administration pour assurer la transition. C’est Frank Calderoni, administrateur indépendant d’Adobe, qui dirige un comité spécial en charge d’examiner les candidatures, aussi bien internes qu’externes.
Il en profite pour jeter des fleurs au futur ex-CEO, qu’il présente comme « architecte de la transformation d’Adobe au cours des 18 dernières années, et pour avoir positionné avec succès Adobe dans une ère pilotée par l’IA ». Shantanu Narayen a publié un mémo pour ses équipes. Il évoque lui aussi l’intelligence artificielle : « La prochaine ère de la créativité est en train de s’écrire – façonnée par l’IA, par de nouveaux flux de travail et par des formes d’expression entièrement nouvelles. Adobe n’a jamais attendu l’arrivée du futur. Nous l’avions anticipé. Nous l’avons construit ».
Bloomberg n’est pas vraiment du même avis : « Le CEO d’Adobe va démissionner face aux préoccupations des investisseurs concernant l’IA », titrent nos confrères. Adobe « fait partie d’un groupe d’entreprises de logiciels applicatifs, dont Salesforce Inc et Atlassian Corp, perçues comme ayant du mal à conquérir de nouveaux clients face aux nouveaux arrivants de l’IA », affirment-ils.
Toujours selon Bloomberg, les investisseurs étaient de plus en plus nombreux à remettre en question les choix et l’orientation de Shantanu Narayen pour Adobe. « L’IA générative a facilité la création de médias visuels sans les produits coûteux d’Adobe. Beaucoup des nouveaux outils créatifs d’IA les plus populaires, comme les modèles d’IA Veo 3 de Google, sont développés par des concurrents ». L’IA est pourtant au cœur des annonces des conférences MAX depuis quelque temps maintenant, mais ce n’est a priori pas suffisant.
En bourse, le cours de l’action d’Adobe est en baisse depuis maintenant près de deux ans. Après une année 2021 au plus haut, la chute a été brutale en 2022, avant une remontée en 2023 et 2024. Actuellement, l’action est à 270 dollars, en dessous des 275 dollars de septembre 2022 quand Adobe était dans le creux de la vague.
Dans un communiqué, Adobe explique que Shantanu Narayen démissionnera de son poste de CEO une fois que son successeur sera trouvé. Il restera par contre président du conseil d’administration pour assurer la transition. C’est Frank Calderoni, administrateur indépendant d’Adobe, qui dirige un comité spécial en charge d’examiner les candidatures, aussi bien internes qu’externes.
Il en profite pour jeter des fleurs au futur ex-CEO, qu’il présente comme « architecte de la transformation d’Adobe au cours des 18 dernières années, et pour avoir positionné avec succès Adobe dans une ère pilotée par l’IA ». Shantanu Narayen a publié un mémo pour ses équipes. Il évoque lui aussi l’intelligence artificielle : « La prochaine ère de la créativité est en train de s’écrire – façonnée par l’IA, par de nouveaux flux de travail et par des formes d’expression entièrement nouvelles. Adobe n’a jamais attendu l’arrivée du futur. Nous l’avions anticipé. Nous l’avons construit ».
Bloomberg n’est pas vraiment du même avis : « Le CEO d’Adobe va démissionner face aux préoccupations des investisseurs concernant l’IA », titrent nos confrères. Adobe « fait partie d’un groupe d’entreprises de logiciels applicatifs, dont Salesforce Inc et Atlassian Corp, perçues comme ayant du mal à conquérir de nouveaux clients face aux nouveaux arrivants de l’IA », affirment-ils.
Toujours selon Bloomberg, les investisseurs étaient de plus en plus nombreux à remettre en question les choix et l’orientation de Shantanu Narayen pour Adobe. « L’IA générative a facilité la création de médias visuels sans les produits coûteux d’Adobe. Beaucoup des nouveaux outils créatifs d’IA les plus populaires, comme les modèles d’IA Veo 3 de Google, sont développés par des concurrents ». L’IA est pourtant au cœur des annonces des conférences MAX depuis quelque temps maintenant, mais ce n’est a priori pas suffisant.
En bourse, le cours de l’action d’Adobe est en baisse depuis maintenant près de deux ans. Après une année 2021 au plus haut, la chute a été brutale en 2022, avant une remontée en 2023 et 2024. Actuellement, l’action est à 270 dollars, en dessous des 275 dollars de septembre 2022 quand Adobe était dans le creux de la vague.
Comment les mairies appréhendent-elles la question de la souveraineté des emails ? Une question d’autant plus importante à l’aune des élections municipales. Orange est le fournisseur d’emails d’une mairie sur deux en France, mais principalement en milieu rural (qu’il verrouille d’ailleurs à sa manière). Microsoft est présent dans de plus grandes villes et touche près de 18 millions d’habitants.
Les emails sont un moyen de communication largement répandu, aussi bien pour échanger avec ses proches, des connaissances, des entreprises et même des services publics. Ils sont aussi un enjeu de souveraineté important avec trois acteurs majeurs américains fortement présents en France : Microsoft, Google et Amazon.
Les emails, un enjeu de souveraineté à ne pas négliger !
Comme nous l’avons récemment expliqué, 88 % des startups de la French Tech passent par des outils américains pour leurs emails. Même chose avec des entreprises du CAC40, des écoles et même des instituts, commissions, autorités et autres administrations françaises.
Pour les données, nous nous sommes rendus sur le site data.gouv.fr du gouvernement, plus précisément sur la page « Annuaire de l’administration – Base de données locales » qui contient « plus de 86 000 guichets publics locaux », dont les mairies. « Elle fournit leurs coordonnées (adresses, téléphones, site internet, horaires d’ouverture, coordonnées de géolocalisation) », ainsi que l’email de contact. Les données proviennent de « Public.gouv.fr /DILA ».
Nous avons aussi utilisé le fichier Base de données locales de Service-public.gouv.fr daté du 6 mars 2026. Pour la population de chaque ville, les données viennent de l’Insee (2021). Comme vous pouvez le voir sur la carte, certains points sont mal placés (des villes françaises se trouvent par exemple au… Kazakhstan), mais cela vient d’un problème dans les longitudes et latitudes du fichier en open data.
Le résultat est disponible sous la forme d’une carte interactive des villes françaises avec le fournisseur d’email utilisé. Pour cela, nous avons regardé les MX Domains de l’adresse email de contact indiquée dans le fichier en open data. Certaines villes, comme Toulouse, n’ont pas d’email de contact référencé, vous pouvez alors passer sur les MX Domains du site officiel de la commune, s’il est disponible bien évidemment.
Un sélecteur vous permet de changer de mode de vue : par villes, par départements, par régions et, un dernier mode très intéressant, par habitants. Le rond de chaque ville est ainsi proportionnel au nombre d’habitants : plus ils sont nombreux, plus le diamètre est important.
Passons maintenant à l’analyse des statistiques.
Orange domine les villes, Microsoft domine les habitants
Il reste 72% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
iXsystems, qui s’occupe du développement de TrueNAS, affirme que ses utilisateurs demandaient depuis longtemps un « moyen d’accéder aux fonctionnalités de TrueNAS Enterprise sur leur propre matériel ».
Comme l’expliquent les développeurs, il y a actuellement deux îlots distincts de TrueNAS : Community Edition (CE) en open source et Enterprise disponible seulement avec des NAS vendus par l’entreprise. TrueNAS Connect vient faire le pont entre les deux, avec des fonctions supplémentaires par rapport à CE, mais pas toutes celles de TrueNAS Enterprise non plus.
iXsystems présente Connect comme un panneau de contrôle en ligne pour simplifier la gestion de TruNAS : « depuis une seule interface, vous pouvez gérer plusieurs systèmes, surveiller l’état du système, configurer des alertes, visualiser le matériel et effectuer des installations web. TrueNAS Connect fonctionne sur votre réseau en utilisant des web sockets sécurisés, une authentification OAuth simple, et aucun matériel supplémentaire ».
Cette nouvelle version sera disponible avec un premier palier gratuit « Foundation », avec deux systèmes TrueNAS maximum et un suivi en temps réel, mais aussi des publicités dans les emails et l’interface en ligne. L’offre « Plus » est annoncée à 60 dollars par an (actuellement en promotion à 30 dollars) avec des fonctionnalités supplémentaires, puis arrivera plus tard « Business » pour ceux qui ont besoin de gérer davantage de machines.
iXsystems affirme enfin que « TrueNAS Community Edition restera toujours une solution de stockage sans frais. Aucune fonctionnalité existante ne sera payante, et de nouvelles seront ajoutées comme toujours. TrueNAS Connect est totalement optionnel ».
La première bêta de TrueNAS 26 (avec la nouvelle numérotation des versions) est toujours prévue pour avril, avec la version finale attendue pour le troisième trimestre.
iXsystems, qui s’occupe du développement de TrueNAS, affirme que ses utilisateurs demandaient depuis longtemps un « moyen d’accéder aux fonctionnalités de TrueNAS Enterprise sur leur propre matériel ».
Comme l’expliquent les développeurs, il y a actuellement deux îlots distincts de TrueNAS : Community Edition (CE) en open source et Enterprise disponible seulement avec des NAS vendus par l’entreprise. TrueNAS Connect vient faire le pont entre les deux, avec des fonctions supplémentaires par rapport à CE, mais pas toutes celles de TrueNAS Enterprise non plus.
iXsystems présente Connect comme un panneau de contrôle en ligne pour simplifier la gestion de TruNAS : « depuis une seule interface, vous pouvez gérer plusieurs systèmes, surveiller l’état du système, configurer des alertes, visualiser le matériel et effectuer des installations web. TrueNAS Connect fonctionne sur votre réseau en utilisant des web sockets sécurisés, une authentification OAuth simple, et aucun matériel supplémentaire ».
Cette nouvelle version sera disponible avec un premier palier gratuit « Foundation », avec deux systèmes TrueNAS maximum et un suivi en temps réel, mais aussi des publicités dans les emails et l’interface en ligne. L’offre « Plus » est annoncée à 60 dollars par an (actuellement en promotion à 30 dollars) avec des fonctionnalités supplémentaires, puis arrivera plus tard « Business » pour ceux qui ont besoin de gérer davantage de machines.
iXsystems affirme enfin que « TrueNAS Community Edition restera toujours une solution de stockage sans frais. Aucune fonctionnalité existante ne sera payante, et de nouvelles seront ajoutées comme toujours. TrueNAS Connect est totalement optionnel ».
La première bêta de TrueNAS 26 (avec la nouvelle numérotation des versions) est toujours prévue pour avril, avec la version finale attendue pour le troisième trimestre.
Sur Internet, les serveurs sont régulièrement attaqués par des milliers de bots. Ces derniers essayent de passer en force… mais que font-ils exactement s’ils arrivent à se connecter ? Next vous propose de passer de l’autre côté du miroir.
En ce début de semaine, nous expliquions que nos sept VPS de test étaient, en moyenne, la cible de 10 000 attaques par jour juste sur le port SSH (qui permet de prendre le contrôle à distance de la machine). Allons davantage dans les détails.
Honeypot maison : la pêche est bonne, avec des milliers de bots par jour
Pour ce faire, nous avons installé sur un de ces serveurs un honeypot (pot de miel, un leurre) faisant croire aux bots qu’ils étaient entrés dans le système. En l’occurrence, nous avons, avec l’aide de Claude Code, déployé et installé Cowrie sur un VPS de test qui ne dispose évidemment d’aucune donnée sensible.
Cowrie écoute sur le port 22, c’est-à-dire celui par défaut de SSH, et nous l’avons configuré pour laisser passer tout le monde, avec n’importe quel nom d’utilisateur et mot de passe. Nous n’aurons donc a priori dans notre besace que les robots les plus bourrins. En effet, certains peuvent détecter la présence du honeypot et passer leur chemin pour ne pas perdre de temps.
Qu’importe, nous ne voulons pas être exhaustifs, mais voir les tendances générales. Cela suffit déjà à enregistrer plusieurs milliers de tentatives par jour.
Il reste 76% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Un peu moins de cinq mois après la mise en ligne de la version finale de Fedora 43, l’équipe en charge du projet a publié cette semaine la première bêta de la 44, aussi bien en version Workstation que KDE Plasma Desktop, Server, IoT et Cloud.
Parmi les changements, le passage au noyau Linux 6.19, l’environnement de bureau Gnome 50 ou KDE Plasma 6.6 suivant les versions. Bien d’autres changements sont de la partie, comme en témoignent les notes de version.
Comme toujours, à utiliser en connaissance de cause, une bêta peut rencontrer des problèmes de stabilité. Pour télécharger une des versions de Fedora, c’est par ici que ça se passe (y compris en LiveCD si vous voulez simplement tester).
Un peu moins de cinq mois après la mise en ligne de la version finale de Fedora 43, l’équipe en charge du projet a publié cette semaine la première bêta de la 44, aussi bien en version Workstation que KDE Plasma Desktop, Server, IoT et Cloud.
Parmi les changements, le passage au noyau Linux 6.19, l’environnement de bureau Gnome 50 ou KDE Plasma 6.6 suivant les versions. Bien d’autres changements sont de la partie, comme en témoignent les notes de version.
Comme toujours, à utiliser en connaissance de cause, une bêta peut rencontrer des problèmes de stabilité. Pour télécharger une des versions de Fedora, c’est par ici que ça se passe (y compris en LiveCD si vous voulez simplement tester).
Intel annonce les deux premiers processeurs « Plus » de sa gamme Core Ultra 200S (Arrow Lake) : les Ultra 7 270K Plus et Ultra 5 250K Plus. Le fondeur met en avant de « nouvelles fonctionnalités et des améliorations architecturales ».
Commençons par les présentations des caractéristiques techniques : les Core Ultra 7 270K(F) Plus et Ultra 5 250K(F) Plus « disposeront d’un plus grand nombre de cœurs et d’une augmentation de fréquence die-to-die pouvant atteindre 900 MHz par rapport aux processeurs » classiques, non « Plus ».
Les Core Ultra 200S ont été lancé fin 2024, mais un an plus tard (en septembre 2025), Intel reconnaissait officiellement avoir « raté le coche », tout en promettant de se rattraper. David Zinsner, directeur financier d’Intel et co-CEO par intérim à l’époque, n’expliquait pas comment. Cette version « Plus » pourrait être un début de réponse.
Quatre E-Core et 100 MHz en boost de plus par rapport aux 264K et 245K
Voici sans plus tarder les caractéristiques techniques des nouveaux processeurs :
Core Ultra 5 250K Plus :
18 cœurs et 18 threads : 6x P-Cores et 12x E-Core
Jusqu’à 5,3 GHz sur les P-Core, 4,7 GHz sur les E-Core
199 dollars
Core Ultra 7 270K Plus :
24 cœurs et 24 threads : 8x P-Cores et 16x E-Core
Jusqu’à 5,5 GHz sur les P-Core, 4,7 GHz sur les E-Core
299 dollars
C’est donc 100 MHz de plus sur les P-Core et E-Core, avec quatre E-Core de plus par rapport aux Ultra 7 265K(F) et Ultra 5 245K(F)… et rien de plus ? Si. Comme indiqué précédemment, Intel a procédé à des changements sous le capot, notamment sur les fréquences d’autres éléments que les cœurs eux-mêmes.
900 MHz de plus pour le D2D, Binary Optimization Tool
C’est le cas de la liaison avec la mémoire et les cœurs. « Certaines de ces fréquences ont été augmentées de près d’un GHz, ce qui réduit la latence et augmente les performances », notamment dans les jeux. 900 MHz de plus, mais par rapport à quoi comme fréquence de base ? 2,1 GHz, selon plusieurs de nos confrères, donc un saut important.
Plus précisément, « la fréquence d’horloge de la liaison die-to-die (D2D) entre la tuile du SoC d’Arrow Lake (où se trouve le contrôleur de mémoire) et celle de calcul (avec les cœurs du processeur) est considérablement augmentée, passant de 2,1 GHz sur les puces Arrow Lake normales à 3,0 GHz sur les puces plus, soit une augmentation de 900 MHz (43 %) », explique ServeTheHome.
Autre amélioration, l’Intel Binary Optimization Tool. L’entreprise explique qu’elle peut, à partir d’une charge de travail existante, « comprendre exactement comment elle utilise le processeur, et si elle n’est pas aussi optimale qu’elle pourrait l’être, nous pouvons restructurer et rationaliser cette application pour qu’elle fonctionne mieux sur un CPU Intel x86 ».
Avec tout cela, Intel annonce 15 % de performances en plus sur le Core Ultra 7 270K Plus par rapport au 265K, contre 13 % pour le 250K Plus par rapport au 245K.
Support des barrettes de mémoire 4R CUDIMM
Intel affirme que n’importe quelle carte mère avec un chipset de la série 800 fonctionnera avec ces nouveaux CPU. Une mise à jour du BIOS peut être nécessaire, mais « le système démarrera », affirme le fondeur.
Sur la mémoire, Intel annonce une prise en charge précoce des barrettes 4R CUDIMM, avec 4R pour 4-Rank, en opposition aux modules 1R et 2R qui étaient déjà supportés. La carte mère peut ainsi prendre en charge des modules de 128 Go, et ainsi monter à 256 Go avec deux barrettes ou 512 Go avec quatre, « sans compromettre les taux de transferts, la latence ou la bande passante ».
Enfin, la mémoire DDR5-7200 est prise en charge, alors que la génération précédente s’arrête à la DDR5-6400. Rendez-vous le 26 mars pour le lancement.
Intel annonce les deux premiers processeurs « Plus » de sa gamme Core Ultra 200S (Arrow Lake) : les Ultra 7 270K Plus et Ultra 5 250K Plus. Le fondeur met en avant de « nouvelles fonctionnalités et des améliorations architecturales ».
Commençons par les présentations des caractéristiques techniques : les Core Ultra 7 270K(F) Plus et Ultra 5 250K(F) Plus « disposeront d’un plus grand nombre de cœurs et d’une augmentation de fréquence die-to-die pouvant atteindre 900 MHz par rapport aux processeurs » classiques, non « Plus ».
Les Core Ultra 200S ont été lancé fin 2024, mais un an plus tard (en septembre 2025), Intel reconnaissait officiellement avoir « raté le coche », tout en promettant de se rattraper. David Zinsner, directeur financier d’Intel et co-CEO par intérim à l’époque, n’expliquait pas comment. Cette version « Plus » pourrait être un début de réponse.
Quatre E-Core et 100 MHz en boost de plus par rapport aux 264K et 245K
Voici sans plus tarder les caractéristiques techniques des nouveaux processeurs :
Core Ultra 5 250K Plus :
18 cœurs et 18 threads : 6x P-Cores et 12x E-Core
Jusqu’à 5,3 GHz sur les P-Core, 4,7 GHz sur les E-Core
199 dollars
Core Ultra 7 270K Plus :
24 cœurs et 24 threads : 8x P-Cores et 16x E-Core
Jusqu’à 5,5 GHz sur les P-Core, 4,7 GHz sur les E-Core
299 dollars
C’est donc 100 MHz de plus sur les P-Core et E-Core, avec quatre E-Core de plus par rapport aux Ultra 7 265K(F) et Ultra 5 245K(F)… et rien de plus ? Si. Comme indiqué précédemment, Intel a procédé à des changements sous le capot, notamment sur les fréquences d’autres éléments que les cœurs eux-mêmes.
900 MHz de plus pour le D2D, Binary Optimization Tool
C’est le cas de la liaison avec la mémoire et les cœurs. « Certaines de ces fréquences ont été augmentées de près d’un GHz, ce qui réduit la latence et augmente les performances », notamment dans les jeux. 900 MHz de plus, mais par rapport à quoi comme fréquence de base ? 2,1 GHz, selon plusieurs de nos confrères, donc un saut important.
Plus précisément, « la fréquence d’horloge de la liaison die-to-die (D2D) entre la tuile du SoC d’Arrow Lake (où se trouve le contrôleur de mémoire) et celle de calcul (avec les cœurs du processeur) est considérablement augmentée, passant de 2,1 GHz sur les puces Arrow Lake normales à 3,0 GHz sur les puces plus, soit une augmentation de 900 MHz (43 %) », explique ServeTheHome.
Autre amélioration, l’Intel Binary Optimization Tool. L’entreprise explique qu’elle peut, à partir d’une charge de travail existante, « comprendre exactement comment elle utilise le processeur, et si elle n’est pas aussi optimale qu’elle pourrait l’être, nous pouvons restructurer et rationaliser cette application pour qu’elle fonctionne mieux sur un CPU Intel x86 ».
Avec tout cela, Intel annonce 15 % de performances en plus sur le Core Ultra 7 270K Plus par rapport au 265K, contre 13 % pour le 250K Plus par rapport au 245K.
Support des barrettes de mémoire 4R CUDIMM
Intel affirme que n’importe quelle carte mère avec un chipset de la série 800 fonctionnera avec ces nouveaux CPU. Une mise à jour du BIOS peut être nécessaire, mais « le système démarrera », affirme le fondeur.
Sur la mémoire, Intel annonce une prise en charge précoce des barrettes 4R CUDIMM, avec 4R pour 4-Rank, en opposition aux modules 1R et 2R qui étaient déjà supportés. La carte mère peut ainsi prendre en charge des modules de 128 Go, et ainsi monter à 256 Go avec deux barrettes ou 512 Go avec quatre, « sans compromettre les taux de transferts, la latence ou la bande passante ».
Enfin, la mémoire DDR5-7200 est prise en charge, alors que la génération précédente s’arrête à la DDR5-6400. Rendez-vous le 26 mars pour le lancement.
L’ANSSI dresse l’état des lieux de la cybermenace en 2025, une année marquée par une stabilité du volume d’incidents, mais une augmentation importante des fausses revendications sur les fuites de données. Vincent Strubel évoque aussi d’autres sujets comme les « hackers éthiques », l’utilisation de l’IA, les failles de sécurité, etc.
Vincent Strubel, patron de l’ANSSI, débutait ce matin sa conférence de présentation du panorama de la cybermenace 2025 par un état des lieux. Alors qu’on aurait pu penser que l’année passée s’était révélée très compliquée et chargée, il relativise d’entrée de jeu : « Au global, on est sur une volumétrie qui ne change quasiment pas » par rapport à 2024, qui était toutefois déjà une année chargée avec les Jeux olympiques de Paris.
« On n’est pas sur une explosion ou un raz de marée en 2025 »
Le patron de l’ANSSI ne s’en cache pas : les « niveaux de menaces sont très significatifs » mais « on n’est pas sur une explosion ou un raz-de-marée en 2025 ». « Au cours de l’année 2025, l’ANSSI a traité, avec un degré d’engagement variable, 3 586 événements de sécurité, soit une diminution de 18 % par rapport à l’année 2024 », peut-on lire dans le rapport (pdf de 60 pages).
Une autre métrique intéressante est le nombre d’incidents, c’est-à-dire « un événement de sécurité où l’ANSSI est en mesure de confirmer qu’un acteur malveillant a conduit des actions avec succès sur le SI de la victime ». Pas seulement une tentative, mais une pénétration des systèmes.
En 2024, l’Agence nationale de la sécurité des systèmes d’information dénombrait 1 361 incidents, « après une croissance les années précédentes (1 112 en 2023 et 831 en 2022) ». En 2024 toujours, les Jeux Olympiques avaient engendré à eux seuls 465 signalements et 83 incidents de cybersécurité (sur les 1 361 donc). En 2025, c’est un peu plus qu’en 2024, mais à peine, avec 1 366 incidents (+ 5 incidents). L’éducation et la recherche représentent 34 % des incidents, les ministères et les collectivités territoriales 24 %, la santé 10 % et enfin les télécommunications 9 %.
60 % des fuites de données ne sont pas avérées
Vincent Strubel revient aussi sur les fuites de données, et veut remettre l’église au centre du village. Il affirme que 60 % des fuites ne sont pas avérées : c’est du « bluff complet ou du recyclage » de précédentes fuites.
Quoi qu’il en soit, il reconnait évidemment que « 40 % de vol de données avéré, c’est 40 % de trop ». Le patron de l’ANSSI rappelle encore une fois le « besoin de regard critique par rapport aux revendications » des pirates. Cela fait « partie de leur stratégie et des dégâts que ça cause ». Nous en parlions récemment dans un édito consacré à la manière de traiter ces informations.
Interrogé sur ce chiffre de 60 % et son évolution par rapport aux années précédentes, Vincent Strubel indique ne pas avoir fait de mesures du genre précédemment car ce n’était « pas un phénomène qui nous inquiétait les années précédentes ». Les fausses revendications semblent donc être une nouveauté importante de 2025, en tout cas elles ont « beaucoup accéléré en 2025 », même si l’ANSSI n’a pas de chiffre précis.
Il revient au passage sur ceux qui se présentent comme des « hackeurs éthiques », rappelant qu’il y a une différence fondamentale « entre alerter sur la menace et donner des leçons, voire taper sur les victimes, ce que l’ANSSI ne fera jamais ». Vincent Strubel prend son rôle de cyberpompier au sérieux, et ne se voit pas (pour filer la métaphore avec les pompiers) se « prendre en selfie devant une maison en feu ».
Il revient aussi sur un point déjà évoqué à plusieurs reprises lors de ses différentes interventions, mais qu’il faut garder en tête : les attaquants n’« ont aucune raison d’être honnêtes », bien au contraire. « Dans les cyberattaques, le seul qui sait au début, c’est l’attaquant et il n’a pas de raison d’être honnête ». Le but est de mettre la pression sur les victimes, d’autant que les pirates n’ont généralement pas de « réelle crédibilité à conserver ».
Il reste 63% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
La fin des réseaux d’anciennes générations soulève des inquiétudes sur de nombreux service utilisant encore la 2G par exemple pour des alertes. C’est notamment le cas des ascenseurs, dont un décret vient préciser les modalités de contrôle. Une première étape, mais il en reste encore bien d’autres alors que la 2G va commencer à s’éteindre dans moins de trois semaines.
Le décret 2026 - 166 du 4 mars et publié au Journal officiel du 6 mars vise « à garantir la sécurité des ascenseurs face à l’arrêt de certains réseaux téléphoniques ». En l’occurrence, il s’agit de la fin du xDSL (paire de cuivre, remplacée par la fibre optique), de la 2G et de la 3G.
Toutes les six semaines, vérification « des moyens d’alerte »
Le texte s’adresse aussi bien aux propriétaires et installateurs d’ascenseurs qu’aux entreprises d’entretien et aux contrôleurs techniques. L’article R134-6 détaille les dispositions minimales suivantes que le propriétaire d’une installation d’ascenseur doit prendre, comme l’explique Locatis, un média de la Banque des Territoires.
Cela comprend notamment, dans la version actuelle du texte, « une visite toutes les six semaines en vue de surveiller le fonctionnement de l’installation et effectuer les réglages nécessaires ». À partir du 1ᵉʳ avril 2026, s’ajoutera « la vérification toutes les six semaines du bon fonctionnement des moyens d’alerte et de communication avec un service d’intervention ».
De plus, le propriétaire de l’ascenseur doit être informé par le prestataire (lettre recommandée avec avis de réception) lorsque les systèmes d’alertes « fonctionnent grâce au réseau téléphonique commuté fixe ou à un réseau de téléphonie mobile ouvert au public de troisième génération ou antérieur, et lorsque des travaux sont nécessaires à la mise à niveau de ce matériel ». Jusqu’à ce que les travaux soient faits, l’alerte doit être renouvelée tous les six mois par le prestataire.
Contrôle technique renforcé pour les ascenceurs
Comme indiqué dans l’article R134-11, le propriétaire d’un ascenseur doit faire réaliser tous les cinq ans un contrôle technique de l’installation. À compter du 15 mai 2026, de nouvelles obligations s’ajouteront afin « de vérifier que les ascenseurs sont équipés des dispositifs permettant la réalisation des objectifs de sécurité mentionnés à l’article R. 134 - 2, que ces dispositifs sont en bon état et que les moyens d’alerte et de communication avec un service d’intervention sont compatibles avec les systèmes de communication autres que le réseau téléphonique commuté fixe ou un réseau de téléphonie mobile ouvert au public de troisième génération ou antérieur ».
Le travail de migration est important, comme l’expliquait le spécialiste des ascenseurs Kone il y a un an. Sur l’intégralité du parc d’ascenseurs dont il a la gestion, « environ 30 % utilisent encore des lignes filaires et 20 % fonctionnent en 3G ». Les ascenseurs sont une des composantes importantes de la fin des réseaux d’anciennes générations (DSL, 2G et 3G), mais ce n’est pas la seule. Il y a aussi le cas des systèmes d’alarme, d’appareils de santé (connectés), de voitures, etc.
Dans moins d’un mois, Orange va commencer à couper la 2G
La fin de la 2G sera une réalité à partir d’avril 2026 chez Orange (de manière progressive), puis fin 2026 chez Bouygues Telecom et SFR. Free Mobile n’a pas de 2G et s’appuie exclusivement sur le réseau d’Orange.
Orange prépare des vagues successives dans neuf départements du Sud-Ouest. Le 31 mars 2026 à Biarritz, Anglet et Bayonne, le 12 mai 2026 dans les Landes (40) et le reste des Pyrénées-Atlantiques (64), le 09 juin 2026 en Ariège (09), en Haute-Garonne (31), dans le Gers (32), le Lot (46), le Lot-et-Garonne (47), les Hautes-Pyrénées (65) et le Tarn-et-Garonne (82).
Ensuite, à partir de fin septembre 2026, « la 2G sera définitivement arrêtée dans le reste de la France métropolitaine. Fin décembre 2026, la technologie 2G devrait donc avoir totalement disparu de l’ensemble du réseau mobile d’Orange en France métropolitaine ».
Pour la 3G, l’échéance est à fin 2028 pour Orange et SFR, fin 2029 pour Bouygues Telecom. Free Mobile a déjà fermé sa 3G, qui passe elle aussi par un accord d’itinérance avec Orange, au grand dam de Bouygues Telecom et SFR.
Selon le dernier décompte de l’Arcep, 2,66 millions de terminaux utilisaient encore la 2G fin 2025. On passe à 5,61 de terminaux en 2G/3, dont 2,62 millions « de cartes SIM dans des terminaux pour des usages voix/SMS/internet mobile (en particulier des téléphones mobiles et tablettes) des abonnés de Bouygues Telecom, Free Mobile, Orange et SFR ».
Pour la fermeture cuivre, seul Orange est aux commandes. L’entreprise a passé la seconde en ce début d’année, avec la fermeture commerciale pour 20 millions de logements. La fermeture technique, avec coupure des abonnements existants, a aussi débuté et va s’intensifier jusqu’à fin 2030, avec l’arrêt définitif et complet du cuivre.
La fin des réseaux d’anciennes générations soulève des inquiétudes sur de nombreux service utilisant encore la 2G par exemple pour des alertes. C’est notamment le cas des ascenseurs, dont un décret vient préciser les modalités de contrôle. Une première étape, mais il en reste encore bien d’autres alors que la 2G va commencer à s’éteindre dans moins de trois semaines.
Le décret 2026 - 166 du 4 mars et publié au Journal officiel du 6 mars vise « à garantir la sécurité des ascenseurs face à l’arrêt de certains réseaux téléphoniques ». En l’occurrence, il s’agit de la fin du xDSL (paire de cuivre, remplacée par la fibre optique), de la 2G et de la 3G.
Toutes les six semaines, vérification « des moyens d’alerte »
Le texte s’adresse aussi bien aux propriétaires et installateurs d’ascenseurs qu’aux entreprises d’entretien et aux contrôleurs techniques. L’article R134-6 détaille les dispositions minimales suivantes que le propriétaire d’une installation d’ascenseur doit prendre, comme l’explique Locatis, un média de la Banque des Territoires.
Cela comprend notamment, dans la version actuelle du texte, « une visite toutes les six semaines en vue de surveiller le fonctionnement de l’installation et effectuer les réglages nécessaires ». À partir du 1ᵉʳ avril 2026, s’ajoutera « la vérification toutes les six semaines du bon fonctionnement des moyens d’alerte et de communication avec un service d’intervention ».
De plus, le propriétaire de l’ascenseur doit être informé par le prestataire (lettre recommandée avec avis de réception) lorsque les systèmes d’alertes « fonctionnent grâce au réseau téléphonique commuté fixe ou à un réseau de téléphonie mobile ouvert au public de troisième génération ou antérieur, et lorsque des travaux sont nécessaires à la mise à niveau de ce matériel ». Jusqu’à ce que les travaux soient faits, l’alerte doit être renouvelée tous les six mois par le prestataire.
Contrôle technique renforcé pour les ascenceurs
Comme indiqué dans l’article R134-11, le propriétaire d’un ascenseur doit faire réaliser tous les cinq ans un contrôle technique de l’installation. À compter du 15 mai 2026, de nouvelles obligations s’ajouteront afin « de vérifier que les ascenseurs sont équipés des dispositifs permettant la réalisation des objectifs de sécurité mentionnés à l’article R. 134 - 2, que ces dispositifs sont en bon état et que les moyens d’alerte et de communication avec un service d’intervention sont compatibles avec les systèmes de communication autres que le réseau téléphonique commuté fixe ou un réseau de téléphonie mobile ouvert au public de troisième génération ou antérieur ».
Le travail de migration est important, comme l’expliquait le spécialiste des ascenseurs Kone il y a un an. Sur l’intégralité du parc d’ascenseurs dont il a la gestion, « environ 30 % utilisent encore des lignes filaires et 20 % fonctionnent en 3G ». Les ascenseurs sont une des composantes importantes de la fin des réseaux d’anciennes générations (DSL, 2G et 3G), mais ce n’est pas la seule. Il y a aussi le cas des systèmes d’alarme, d’appareils de santé (connectés), de voitures, etc.
Dans moins d’un mois, Orange va commencer à couper la 2G
La fin de la 2G sera une réalité à partir d’avril 2026 chez Orange (de manière progressive), puis fin 2026 chez Bouygues Telecom et SFR. Free Mobile n’a pas de 2G et s’appuie exclusivement sur le réseau d’Orange.
Orange prépare des vagues successives dans neuf départements du Sud-Ouest. Le 31 mars 2026 à Biarritz, Anglet et Bayonne, le 12 mai 2026 dans les Landes (40) et le reste des Pyrénées-Atlantiques (64), le 09 juin 2026 en Ariège (09), en Haute-Garonne (31), dans le Gers (32), le Lot (46), le Lot-et-Garonne (47), les Hautes-Pyrénées (65) et le Tarn-et-Garonne (82).
Ensuite, à partir de fin septembre 2026, « la 2G sera définitivement arrêtée dans le reste de la France métropolitaine. Fin décembre 2026, la technologie 2G devrait donc avoir totalement disparu de l’ensemble du réseau mobile d’Orange en France métropolitaine ».
Pour la 3G, l’échéance est à fin 2028 pour Orange et SFR, fin 2029 pour Bouygues Telecom. Free Mobile a déjà fermé sa 3G, qui passe elle aussi par un accord d’itinérance avec Orange, au grand dam de Bouygues Telecom et SFR.
Selon le dernier décompte de l’Arcep, 2,66 millions de terminaux utilisaient encore la 2G fin 2025. On passe à 5,61 de terminaux en 2G/3, dont 2,62 millions « de cartes SIM dans des terminaux pour des usages voix/SMS/internet mobile (en particulier des téléphones mobiles et tablettes) des abonnés de Bouygues Telecom, Free Mobile, Orange et SFR ».
Pour la fermeture cuivre, seul Orange est aux commandes. L’entreprise a passé la seconde en ce début d’année, avec la fermeture commerciale pour 20 millions de logements. La fermeture technique, avec coupure des abonnements existants, a aussi débuté et va s’intensifier jusqu’à fin 2030, avec l’arrêt définitif et complet du cuivre.
Depuis ce week-end, l’affaire fait les choux gras de la presse : des neurones humains apprendraient à jouer à Doom. L’« annonce » fait un carton au bingo bullshit 2026 : Doom, de l’intelligence artificielle et des neurones humains. La réalité est différente. Si l’histoire est intéressante, nous sommes loin d’un cerveau humain dans une boite de pétri maitrisant Doom.
La vidéo de Cortical Labs, qui développe des puces avec des cellules humaines, a déjà presque deux semaines. Même chose pour le dépôt GitHub du projet « doom-neuron » de Sean Cole, un développeur « partenaire » de Cortical Labs. On trouve aussi des actualités datant de plus d’une semaine parlant de 200 000 neurones humains « jouant » à Doom. C’est le cas de Tom’s Hardware ou de NewScientist, pour ne citer que ces deux-là.
Cortical Labs explique que la machine utilisée est une CL1 avec 200 000 « neurones humains vivants » installés sur une puce baptisée « multi-electrodes array », précise Alon Loeffler, scientifique et post-doctorant à Cortical Labs. Pour « jouer » à Doom, Sean Cole a utilisé une API mise à disposition par l’entreprise pour exploiter un de ses réseaux de neurones sur une machine CL1.
« Les cellules se comportent un peu comme un débutant »
Dans sa vidéo marketing de présentation, Cortical Labs explique que, avant d’utiliser ses puces, il faut d’abord « traduire le monde numérique apocalyptique de Doom dans le langage biologique des neurones, qui est l’électricité ». Pour faire simple, passer des éléments de l’image du jeu à des flux électriques. En effet, les neurones humains du CL1 ne « voient » pas vraiment le jeu via des caméras ou n’importe quel dispositif optique.
Il reste 87% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Un serveur, fraîchement installé et à peine connecté sur Internet, n’a que quelques dizaines de secondes de répit avant une première tentative d’accès frauduleux. Puis, la tempête ne s’arrête jamais, avec en moyenne plus de 10 000 tentatives par jour.
Depuis plusieurs semaines, nous nous sommes lancés dans des tests et comparatifs de VPS (serveur privé virtuel). Nous en avons profité pour les laisser tourner, à vide ou presque. Ils sont dans leur configuration par défaut, avec le système d’exploitation installé lors de la livraison.
Quatre semaines plus tard, nous récupérons les logs des sept serveurs pour analyser les tentatives de connexion sur le port 22, celui pour SSH (Secure Shell). Ce dernier est « une méthode permettant d’envoyer, de manière sécurisée, des commandes à un ordinateur sur un réseau non sécurisé », rappelle Cloudflare. Via des logiciels comme PuTTY, par exemple, on peut se connecter à distance sur un serveur et réaliser toutes les opérations que l’on souhaite.
IBM précise que de son côté que « la plupart des robots automatisés tentent de se connecter à votre serveur SSH sur le port 22 en tant que root avec diverses combinaisons de force brute et de dictionnaire afin d’accéder à vos données ». Une connexion à distance en « root » laisserait l’intégralité de votre serveur à la merci des pirates.
Entre 6 500 et 14 000 tentatives par jour, en moyenne
Avez-vous un ordre d’idée du nombre de tentatives de connexion que subissent des serveurs sur Internet ? Selon nos mesures sur 25 jours d’expérimentation, la moyenne est aux alentours de… 10 000 attaques par jour et par serveur. Dans les logs, nous comptabilisons deux types d’événements. ECHEC, c’est-à-dire quand l’utilisateur existe, mais que le mot de passe est faux. ECHEC_USER_INVALIDE, quand l’utilisateur n’existe pas sur le serveur (le serveur ferme la connexion avant même de demander un mot de passe).
Voici un tableau récapitulatif des tentatives sur chacun des VPS :
Il reste 55% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Fin février, la division Xbox de Microsoft vivait un important séisme : Phil Spencer (38 ans d’ancienneté, présent pour le lancement de toutes les consoles) était remplacé par Asha Sharma. Elle est désormais CEO de Microsoft Gaming, alors qu’elle s’occupait depuis deux ans de la branche produit de Microsoft CoreAI.
Sur X, elle a publié un message annonçant le « projet Helix, nom de code de notre console de nouvelle génération ». Son message est relativement court, sans aucun détail. Elle précise simplement que « project Helix offrira des performances exceptionnelles et sera compatible avec vos jeux Xbox et PC ».
Elle donne rendez-vous aux « partenaires et studios » à la GDC (Game Developers Conference) qui se tient cette semaine, au Moscone Center de San Francisco. Un rendez-vous important de la communauté où elle devra prendre ses marques et s’imposer alors que le « fantôme » de Phil Spencer (qui a écumé les GDC pendant des années) sera certainement présent.
Lors de la présentation des résultats financiers au début du mois, la CEO d’AMD, Lisa Su, expliquait que « le développement de la Xbox de nouvelle génération, équipée d’un SoC semi-personnalisé AMD, progresse bien pour épauler un lancement 2027 », rapporte The Verge. AMD ne dit pas que Microsoft lancera sa console en 2027, mais se tient prêt si besoin.
L’année dernière, le compte officiel Xbox annonçait sur X « construire la prochaine génération d’appareils et de services cloud Xbox, y compris nos futures consoles Xbox, en collaboration avec AMD ». Asha Sharma a donné le coup d’envoi de la guerre des consoles « next gen », à voir maintenant ce qui va en sortir durant la GDC, et notamment si Sony va entrer dans la partie avec la PlayStation 6.
Fin février, la division Xbox de Microsoft vivait un important séisme : Phil Spencer (38 ans d’ancienneté, présent pour le lancement de toutes les consoles) était remplacé par Asha Sharma. Elle est désormais CEO de Microsoft Gaming, alors qu’elle s’occupait depuis deux ans de la branche produit de Microsoft CoreAI.
Sur X, elle a publié un message annonçant le « projet Helix, nom de code de notre console de nouvelle génération ». Son message est relativement court, sans aucun détail. Elle précise simplement que « project Helix offrira des performances exceptionnelles et sera compatible avec vos jeux Xbox et PC ».
Elle donne rendez-vous aux « partenaires et studios » à la GDC (Game Developers Conference) qui se tient cette semaine, au Moscone Center de San Francisco. Un rendez-vous important de la communauté où elle devra prendre ses marques et s’imposer alors que le « fantôme » de Phil Spencer (qui a écumé les GDC pendant des années) sera certainement présent.
Lors de la présentation des résultats financiers au début du mois, la CEO d’AMD, Lisa Su, expliquait que « le développement de la Xbox de nouvelle génération, équipée d’un SoC semi-personnalisé AMD, progresse bien pour épauler un lancement 2027 », rapporte The Verge. AMD ne dit pas que Microsoft lancera sa console en 2027, mais se tient prêt si besoin.
L’année dernière, le compte officiel Xbox annonçait sur X « construire la prochaine génération d’appareils et de services cloud Xbox, y compris nos futures consoles Xbox, en collaboration avec AMD ». Asha Sharma a donné le coup d’envoi de la guerre des consoles « next gen », à voir maintenant ce qui va en sortir durant la GDC, et notamment si Sony va entrer dans la partie avec la PlayStation 6.
Vous êtes-vous déjà demandé d’où venait le PCI Express (PCIe) utilisé par les cartes graphiques et comment il faisait pour doubler ses débits à chaque génération ? Oui, alors Next vous apporte les réponses. Non ? Parfait, c’est l’occasion d’apprendre de nouvelles choses !
Le PCIe comme nous avons l’habitude de l’appeler, a bien des noms. La version longue : Peripheral Component Interconnect Express. Version plus courte : PCI Express. On parle aussi de PCI-E ou PCIe en abrégé. Le PCIe est une norme de bus d’extension, permettant de connecter des cartes d’extension sur des cartes mères.
Petite histoire du PCI Express : Arapahoe (Intel) >> 3GIO >> PCIe
Le PCIe est une évolution du PCI classique et remplace aussi l’AGP qui était utilisé par des cartes graphiques (et encore avant les bus VLB et (E)ISA). Le PCIe est né au début des années 2000, d’abord lancé par Intel sous le nom de code projet Arapahoe puis sous l’appellation 3GIO pour Third Generation I/O. Il est ensuite repris par le PCI-SIG, avec SIG pour Special Interest Group, encore aujourd’hui en charge du PCIe. Au conseil d’administration, on retrouve du beau monde : AMD, ARM, Dell, IBM, Intel, Keysight, NVIDIA, Qualcomm et Synopsys.
En 2002, le PCI Express était né. Aujourd’hui, c’est la 8ᵉ génération de PCIe qui est en travaux. Ce bus d’extension est présent sur toutes les cartes mères, en version 5.0 pour les plus récentes. De 8 Go/s en bi-directionnel (4 Go dans chaque sens, descendant et montant), il est maintenant question de… 1 024 Go/s, soit 128x plus en plus de deux décennies. Pour en arriver là, plusieurs évolutions ont été nécessaires.
Voici un rapide état des lieux des dates et des débits (approximatifs) de chaque génération :
Il reste 83% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
YggTorrent est mort, mais il bouge encore. Le message affiché sur la page d’accueil change, répond à certaines accusations et propose désormais les noms de domaine à la vente… « exclusivement pour un projet légal ». Pendant un temps, un compte à rebours annonçait un retour, sous la forme Ygg tout court.
Mise à jour du 13 mars à 8h15. La page a de nouveau été modifiée, le compte à rebours supprimé. Un nouveau message annonce désormais que « le relancement initialement envisagé est abandonné, faute des conditions nécessaires pour poursuivre le projet dans un contexte marqué par des cyberattaques répétées ». YGGtorrent remonte aussi la piste de Gr0lum. L’actualité a été mise à jour en conséquence.
Mise à jour du 6 mars à 12h55. Le compte à rebours est de retour, toujours avec un rendez-vous lundi à 21 h.
Article du 6 mars à 9 h 33. En début de semaine, le site YggTorrent annonçait sa fermeture, suite à un piratage massif de ses données : pas moins de 30 Go ont été publiées avec des informations sur le code source, les utilisateurs, bancaires, etc. Le pirate expliquait aussi en détail comment il était entré dans les serveurs.
Le message de l’équipe d’YggTorrent était alors clair, sans ambiguïté : il débutait par « Fermeture définitive de YggTorrent » et se terminait par « L’histoire s’arrête ici ». Une « reconstruction serait techniquement possible », affirmait l’équipe, mais elle ne souhaitait pas « continuer dans un climat d’acharnement permanent ». Mais en fait non, l’histoire ne s’arrête pas là.
Nouveau message, toujours une « fermeture définitive »
Un nouveau texte a été mis en ligne sur le site de YggTorrent. Il est plus court et moins dans l’émotion que le premier et donne de nouvelles informations. Tout d’abord, le site affirme qu’« aucune donnée bancaire n’a jamais été collectée ni stockée par nos systèmes, et l’ensemble des mots de passe des comptes actifs étaient protégés par un hachage cryptographique sécurisé ». Il était auparavant précisé que les mots de passe étaient « hachés et salés ».
Il n’est plus du tout question des « portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, [qui] ont également été dérobés (un détail que certains choisiront d’ignorer) ». Le site affirme que « les auteurs de l’attaque multiplient les déclarations mensongères […] Ils déforment les faits, fabriquent de fausses preuves et comptent sur la confusion pour imposer leur version ». À ce petit jeu, l’équipe d’YggTorrent semble aussi participer…
Offre légale mise en avant, l’intégralité des noms de domaine est à vendre
Enfin, comme précédemment, l’offre légale est mise en avant : « Ne vous laissez pas tromper et tournez-vous plutôt vers les nombreuses solutions légales désormais disponibles ». Le site est désormais divisé en deux, avec la partie droite qui met en avant les plateformes légales comme Netflix, Canal+, Disney+, Prime, France.tv, Arte…
Il est par ailleurs précisé que « l’intégralité de nos noms de domaine est à vendre, exclusivement pour un projet légal, sans aucun lien avec le torrenting ni le téléchargement d’œuvres protégées. Les demandes non sérieuses seront ignorées ».
Il y a peu, un compte à rebours annonçait… un retour d’Ygg
Mais ne pensez pas que l’histoire s’arrête là ! Avant cette mise en vente, il y a eu un retour annoncé de Ygg (sans le Torrent) avec un compte à rebours, comme le rapporte ZDNet, avec le message « Quelque chose se prépare », et une phrase en russe : « il est trop tôt pour nous enterrer ». Le rendez-vous était pour lundi 16 mars à priori, mais le compte à rebours a disparu… pour l’instant ? Le site est cette semaine en mode girouette, bien malin celui qui arrive à prévoir le prochain coup.
En effet, quelques heures avant la capture d’écran de ZDNet, un utilisateur sur X faisait état d’encore une nouvelle version du site, déjà avec un compte à rebours, mais surtout avec un « communiqué », que l’on retrouve aussi sur Reddit. Le message affirmait déjà qu’« aucune donnée bancaire n’a jamais été collectée, stockée ni traitée par nos systèmes ».
Le communiqué ajoutait que « notre architecture n’a à aucun moment intégré de module de stockage d’informations de cartes de paiement. Les allégations contraires sont factuellement fausses […] Le recours au hachage MD5 évoqué concerne exclusivement moins de 3 % des comptes utilisateurs ». Communiqué qui n’est aujourd’hui plus disponible.
Selon le texte qui était alors disponible, le site rejette la faute du piratage sur son hébergeur, sauf que comme l’a montré Grolum dans sa longue explication, cela ne colle pas vraiment avec ses explications.
Retour du compte à rebours
Dans la matinée, le compte à rebours était de retour, comme nous l’a signalé Droup dans les commentaires. Le reste du message, y compris la vente des noms de domaine, est le même. Seule différence, le mot Torrent de YggTorent est barré.
On retrouve donc le message « YggTorrentest mort », « Quelque chose se prépare » et « Non omnis moriar ». Du latin qui, d’après DeepL, se traduirait par « Je ne mourrai pas complètement ». Rendez-vous lundi à 21 h… du moins si le compte à rebours reste en place et annonce vraiment quelque chose. Le code source de la page ne semble pas cacher de secret particulier.
Encore une « fermeture définitive » de YGGtorrent (et YGG)
Finalement, pas besoin d’attendre lundi 16 mars. Hier, un nouveau message est arrivé : « YGGtorrent / YGG. Fermeture définitive ». La « fermeture définitive de YggTorrent » avait déjà été annoncée au début de cette affaire. Le billet de l’époque se terminait par « l’histoire s’arrête ici »… autant dire que c’est loin d’être le cas.
Cette nouvelle « fermeture définitive » concerne cette fois-ci aussi bien YGGtorrent que le nouveau projet YGG. La suite du message ne laisse aucune place au doute :
« Après plusieurs années d’activité, nous mettons fin à l’ensemble des services YGGtorrent / YGG (site, tracker et infrastructure). Le relancement initialement envisagé est abandonné, faute des conditions nécessaires pour poursuivre le projet dans un contexte marqué par des cyberattaques répétées […] Aucun retour n’est prévu. Méfiez-vous des sites ou services se présentant comme des alternatives dans les semaines à venir : la plupart sont malveillants. Restez vigilants ».
L’offre légale est de nouveau vantée, et la vente des noms de domaine – « qui continuent de générer un volume de trafic significatif » – toujours d’actualité. YGGtorrent annonce aussi que « l’auteur de l’intrusion et de la fuite de données a été identifié », avec un lien vers cette page.
Pour YGGtorrent, pas de doute : « Gr0lum est @uwudev »
L’équipe de YGGtorrent y affirme que Gr0lum aurait envoyé un email « exigeant 300 XMR (plus de 100 000 $) en échange du non-leak des données de l’infrastructure ». Refus de YGGtorrent et publication des données, comme nous l’avons expliqué.
Ils ajoutent que Gr0lum aurait aussi envoyé un « faux signalement à Cloudflare prétendant que ygg.guru sert de serveur C2 pour un ransomware », puis « compile un véritable ransomware intégrant un appel vers ygg.guru/api/health ». « Cette opération a porté ses fruits : à la suite de ces faux signalements, le domaine ygg.guru a été placé en onhold par le registrar, rendant le nouveau site inaccessible ».
L’équipe de YGGtorrent remonte ensuite la piste de Gr0lum pour essayer de trouver qui se cache derrière ce pseudo. Leur enquête aurait porté ses fruits (on passe directement à la conclusion) : « Les éléments présentés dans ce dossier ne laissent aucun doute : Gr0lum est @uwudev. Il n’agit pas seul. D’autres individus, étroitement liés au milieu de la cybercriminalité, l’ont assisté dans ses activités ».
L’article se termine par un message adressé à Gr0lum : « Nous nous arrêterons à la révélation du pseudo. Le reste est entre les mains de ceux que ça concerne. Ce dossier ne représente qu’une fraction de ce que nous détenons ».
Aucune nouvelle publication pour le moment sur Yggleak, le site mis en place par Gr0lum pour publier les données et informations qu’il avait récupérées sur YGGtorrent et son infrastructure.