Vue normale

☕️ Telegram épinglé par l’Arcom pour sa lenteur face au piratage sportif

30 avril 2026 à 15:06


Telegram n’est pas suffisamment réactif pour retirer les contenus illicites, a jugé l’Arcom. Une décision qui pourrait peser lourd pour la messagerie, dans le viseur des ayants droit et des régulateurs européens.

L’application Telegram est dans la ligne de mire des diffuseurs officiels de compétitions sportives. La messagerie permet en effet d’échanger des liens de streaming illicite et de regarder illégalement des matchs, mais ce qui pose problème c’est surtout qu’elle ne répond pas assez rapidement aux demandes de retrait des ayants droit. C’est du moins l’avis de l’Arcom repris par Les Échos.

Illustration : Flock

Le régulateur de l’audiovisuel avait été saisi en fin d’année dernière par l’Association pour la protection des programmes sportifs (APPS). L’organisation de diffuseurs reproche à Telegram de ne pas réagir avec suffisamment de diligence à ses demandes d’intervention. Le problème n’est effectivement pas nouveau : en 2024, la Ligue de football professionnel (LFP) déplorait des délais de réponse fluctuants, jusqu’à 24 heures. Ce qui est évidemment totalement incompatible avec des retransmissions illégales de matchs qu’il faut pouvoir couper tout de suite.

Telegram assure de son côté que ses délais de réponse sont « supérieurs aux standards du secteur » et que les signalements sont traités « avec réactivité ». L’APPS reconnait d’ailleurs une amélioration dans le traitement des signalements par rapport à la période examinée. Néanmoins, l’Arcom a jugé que la messagerie n’avait pas été suffisamment prompte à répondre aux infractions des droits d’auteur.

L’avis s’appuie sur le règlement européen sur les services numériques (DSA), bien que Telegram n’ait pas été désigné « très grande plateforme en ligne » (VLOP). La messagerie réfute compter plus de 45 millions d’utilisateurs actifs mensuels, le seuil au-delà duquel une plateforme reçoit son rond de serviette au club européen. En revanche, plusieurs de ses fonctions peuvent être classifiées de la sorte et doivent respecter les règles de modération et de transparence de l’UE. Ce qui a forcé l’entreprise à désigner un représentant en Europe, en l’occurrence en Belgique. 

C’est la raison pour laquelle l’Arcom a transmis son avis à l’Institut belge des services postaux et des télécommunications (IBPT), une première en la matière. Le régulateur instruit le dossier, qui sera enrichi des enquêtes de ses homologues européens. La sanction pourrait être lourde : jusqu’à 6 % du chiffre d’affaires mondial, voire une suspension temporaire au sein de l’Union européenne.

Les ayants droit sont en attente du vote de la proposition de loi relative à l’organisation, à la gestion et au financement du sport professionnel. Le texte contient des mesures renforçant la lutte contre le piratage des contenus sportifs, qui permettra aux diffuseurs d’obtenir immédiatement le blocage des flux illégaux. Après son adoption par le Sénat en juin dernier, il sera de retour à l’Assemblée nationale le 18 mai.

Dopés par l’IA, les géants du cloud projettent 700 milliards $ d’investissements en 2026

30 avril 2026 à 14:16
Double down
Dopés par l’IA, les géants du cloud projettent 700 milliards $ d’investissements en 2026

Microsoft, Meta, Amazon et Alphabet (Google) ont tous quatre profité de la publication de leurs résultats financiers pour annoncer, mercredi, une révision à la hausse de leurs investissements en direction de l’IA. Les enveloppes prévisionnelles cumulées représentent désormais 700 milliards de dollars sur l’année.

S’il y a une bulle de l’IA, elle n’affecte pas encore les performances des grands noms de la tech. Dans une rare publication simultanée de résultats financiers, les quatre groupes ont en effet fait état, mercredi 29 avril, de résultats supérieurs aux attentes pour toutes les activités liées au cloud, c’est-à-dire à la mise à disposition d’infrastructures, de logiciels ou de services informatiques.

Le chiffre d’affaires cloud s’envole

Au jeu de la croissance, Google Cloud affiche (PDF) des chiffres particulièrement impressionnants, avec un chiffre d’affaires qui passe de 12,26 milliards à 20 milliards de dollars sur le seul premier trimestre, soit une augmentation de l’ordre de 60 %. Et la division affiche des perspectives solides, avec un carnet de commandes supérieur à 460 milliards de dollars selon le groupe.

La hausse est moins marquée sur les autres activités, mais elle se révèle néanmoins très soutenue sur la publicité liée au search (+ 20 % sur un an, à 60 milliards de dollars). La maison mère Alphabet conclut de ce fait le trimestre sur un chiffre d’affaires de près de 110 milliards de dollars, en hausse de 22 % sur un an.

Pour Alphabet, c’est l’intelligence artificielle qui sous-tend cette croissance, et pas uniquement dans le cloud. La publicité en ligne ou les investissements sur YouTube profiteraient eux aussi d’une accélération due à la démocratisation des outils d’automatisation dans les processus d’achat, notamment programmatiques.

Sundar Pichai attribue une part significative de ce succès à la surface couverte par Google. « Ces résultats exceptionnels reposent sur notre approche intégrée et différenciée. Nos modèles propriétaires, comme Gemini, traitent désormais plus de 16 milliards de jetons par minute via l’utilisation directe de l’API par nos clients, soit une hausse de 60 % par rapport au trimestre précédent. »

Amazon, leader du marché, n’est pas en reste. Ses résultats (PDF) font ressortir une activité en hausse de 28 % sur un an pour la branche AWS (Amazon Web Services), soit la croissance la plus importante enregistrée sur les 15 derniers trimestres, souligne le groupe. Son chiffre d’affaires s’établit ainsi à 37,6 milliards de dollars sur les trois premiers mois de l’année, contre 29,3 milliards un an plus tôt.

L’IA comme moteur de la croissance

Sur le volet cloud, Amazon souligne que le trimestre lui a permis de nouer une trentaine d’accords industriels autour du cloud avec des acteurs de premier plan, au premier rang desquels on trouve plusieurs locomotives de la scène IA dont OpenAI, Anthropic, NVIDIA, mais aussi Meta, l’armée américaine ou le français Veolia.

Pour ne rien gâcher, Amazon affiche également une montée en puissance continue dans le domaine des semiconducteurs, qui lui permet d’être à la fois son propre fournisseur et son premier client. L’activité représente désormais une projection de chiffre d’affaires annuel à plus de 20 milliards de dollars, souligne le groupe, à qui l’on prête l’intention d’ouvrir son carnet de commandes à des tiers.

Là aussi, l’IA est présentée comme l’un des catalyseurs de l’activité AWS, dont la division spécialisée, Bedrock, a traité sur le trimestre plus de tokens « que toutes les années précédentes réunies ».


Il reste 60% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Marketplaces étrangères : 46 % des produits testés sont dangereux, alerte la DGCCRF

30 avril 2026 à 13:43
Chaud, très chaud devant !
Marketplaces étrangères : 46 % des produits testés sont dangereux, alerte la DGCCRF

La DGCCRF a passé au crible des chargeurs électriques achetés sur des plateformes étrangères. Le résultat est sans appel : 100 % sont non conformes et 60 % sont dangereux. D’autres produits ont été testés, et ce n’est pas beaucoup mieux. Sur les 588 articles analysés, 46 % sont dangereux.

La répression des fraudes vient de publier un état des lieux de la sécurité d’une dizaine de catégories de produits : « Les prélèvements réalisés par la DGCCRF depuis le printemps 2025 sur les articles vendus en ligne par sept marketplaces étrangères parmi les plus populaires auprès des consommateurs français ont révélé que 46 % des produits analysés sont non conformes et dangereux ».

Il s’agit bien d’articles non conformes et dangereux. Dans 75 % des cas, les articles n’étaient « que » non conformes… une bien maigre consolation. Les marketplaces ont pignon sur rue : elles représentaient en 2025 de 8 à 38 millions de visiteurs mensuels uniques en France… chacune.

15 chargeurs testés : 15 non conformes et 9 dangereux

La DGCCRF détaille les résultats par catégorie de produits. La Palme d’or revient aux écharpes de portage et autres articles de puériculture (attache-sucette) avec 15 produits dangereux sur… 15 produits analysés. Viennent ensuite les piles boutons avec 25 non conformes et dangereux sur… 26 produits analysés. Le petit électroménager de cuisine (et autres produits électriques), les luminaires et guirlandes, sont à 81 % de produits non conformes et dangereux.

Sur les adaptateurs et chargeurs USB, 15 articles ont été analysés et… 15 ne sont pas conformes. Seule consolation, ils ne sont « que » 60 % à être dangereux, en plus d’être non conformes. Les habitués de Next et ceux qui ont déjà lu nos analyses sur les chargeurs USB ne seront pas spécialement surpris, mais le chiffre a toujours de quoi faire froid dans le dos.

Nous avons, pour rappel, testé une vingtaine de chargeurs USB achetés pour moins de 20 euros sur des plateformes comme AliExpress, Amazon et Cdiscount (cette dernière est française, elle appartient au groupe Casino).

Plus de 100 000 produits déjà retirés du marché

Ces analyses se déroulent dans le cadre du plan e-commerce annoncé par le gouvernement en 2025. La DGCCRF « a triplé le nombre de prélèvements réalisés en ligne sur sept marketplaces étrangères parmi les plus populaires auprès des consommateurs français ».

La répression des fraudes a évidemment signalé les anomalies aux plateformes concernées, « et plus de 100 000 produits ont déjà fait l’objet d’une alerte pour être retirés de la vente ». La DGCCRF en profite pour appeler les « consommateurs à la vigilance quand ils achètent des produits vendus sur les places de marché étrangères ».

Sur les 46 % des produits dangereux, les griefs sont variés : « risques d’étouffement ou d’étranglement dus à la présence de petits éléments détachables dans des produits destinés aux enfants, risques de chocs électriques et d’incendie pour des appareils électriques et électroménagers ou encore des risques pour la santé en raison de substances chimiques présentes en quantités excessives ». Sur la non-conformité (75 % des produits testés), les principaux reproches sont des défauts d’étiquetage.

Ci-dessous, l’exemple d’un des chargeurs acheté 15 euros sur la marketplace Amazon. Lors de nos tests, la température extérieure était à plus de 127 °C selon notre caméra thermique :

La DGCCRF précise un point important : les prélèvements ont ciblé en priorité « les produits identifiés comme les plus à risque ». Les taux de non-conformité et de dangerosité élevés ne peuvent donc « pas être extrapolés à l’ensemble des produits vendus sur les marketplaces contrôlées ». Lors de nos tests, nous nous étions concentrés sur les produits à moins de 20 euros… Deux approches qui ne sont certainement pas si éloignées l’une de l’autre…

☕️ Fuite de l’ANTS : un ado de 15 ans en garde à vue. « Ce n’est pas un prodige. C’est un signal. »

30 avril 2026 à 12:09


Laure Beccuau, procureure de la République, annonce que le, 25 avril, « un mineur âgé de 15 ans a été placé en garde à vue, soupçonné d’avoir contribué à la fuite de données au préjudice de l’ANTS (France Titres, Agence nationale des titres sécurisés) ».

Pour rappel, au moins 11,7 millions de comptes sont touchés. Le portail France Titres a été fermé vendredi 24 avril pour maintenance. Selon nos constatations, c’est finalement mercredi 29 avril en fin de journée que l’accès aux démarches en ligne et à l’identification via France Connect ont été rétablis.

Dans son communiqué, la procureure rappelle que l’OFAC (Office anti-cybercriminalité) avait été informé en avril d’une cyberattaque contre l’ANTS : « Entre 12 et 18 millions de lignes de données étaient proposées à la vente sur des forums cybercriminels, par un hacker surnommé « breach3d » ». Attaque confirmée le 13 avril 2026, avec « l’authenticité des données revendues ».

La section de lutte contre la cybercriminalité du parquet de Paris a ouvert une enquête le 16 avril pour « accès et maintien frauduleux dans un système de traitement automatisé de données à caractère personnel mis en œuvre par l’État, ainsi que d’extraction frauduleuse de données contenues dans un système de traitement automatisé de données à caractère personnel mis en œuvre par l’État (délits faisant encourir la peine de 7 ans d’emprisonnement et 300 000 euros d’amende) ».

Une information judiciaire est finalement ouverte hier, mercredi 29 avril 2026 par le parquet de Paris : « Les investigations se poursuivent désormais sous la direction du juge d’instruction ». Johanna Brousse, vice-procureure du parquet de Paris, cheffe de la section de lutte contre la cybercriminalité, revient sur cette arrestation avec un message sous la forme d’une alerte :

« Vol de données ANTS : interpellation d’un suspect, il a 15 ans.
Ce n’est pas un prodige.
C’est un signal.
La menace cyber se banalise.
À nous, collectivement, d’élever notre niveau de cyber résilience.
 »

Il y a une semaine, une autre arrestation faisait la une des journaux : HexDex. Il est soupçonné d’être à l’origine de la mise en ligne de nombreuses bases de données dérobées à des fédérations sportives, au système d’information sur les armes du ministère de l’Intérieur (SIA), à l’Agence Nationale de la Cohésion des Territoires (ANCT), au service Choisir le service public gouv, etc.

Entre les deux arrestations, les fuites ne se sont pas arrêtées avec 705 000 candidats à Parcoursup, l’Agence de services et de paiement et 330 000 usagers du téléservice Radiomaritime de l’ANFR. Le Premier ministre, Sébastien Lecornu, se rendra cet après-midi à l’ANTS pour parler de cybersécurité. À voir maintenant la teneur des annonces qui y seront faites.

Copy fail : depuis 2017, une faille dans le noyau Linux permettait à un utilisateur de passer root

30 avril 2026 à 11:40
Une optimisation trop rapide
Copy fail : depuis 2017, une faille dans le noyau Linux permettait à un utilisateur de passer root

Depuis 2017, une vulnérabilité dans le module cryptographique authencesn du noyau Linux laissait à un compte d’un simple utilisateur la possibilité de passer en root. Elle concerne la plupart des grandes distributions jusqu’au déploiement du patch, qui est déjà en cours.

C’est l’entreprise de sécurité Xint.io qui a révélé, ce mercredi 29 avril, cette vulnérabilité (CVE-2026-31431, d’une sévérité élevée de 7,8/10) permettant une élévation des privilèges en local.

Le score n’est « que » de 7,8 car le vecteur d’attaque est local (AV:L) : il faut déjà avoir un accès local sur la machine, ici un compte utilisateur. La même avec une attaque depuis le réseau (AV:N) se serait approchée de 10.

N’importe qui peut devenir root

Appelée « Copy Fail », celle-ci permet (sans accès au réseau, sans utiliser de fonctionnalités de débogage du noyau et sans avoir installé quoi que ce soit avant) à toute personne possédant un simple compte utilisateur sur quasiment n’importe quelle distribution Linux d’obtenir les privilèges root et donc d’y faire tout ce qu’elle veut.

Comme l’explique l’entreprise sur le site dédié à la faille, « un utilisateur local sans privilèges peut écrire quatre octets contrôlés dans le page cache de n’importe quel fichier accessible en lecture sur un système Linux, et s’en servir pour obtenir les privilèges root ».

Les responsables des distributions ont commencé à mettre à jour le paquet de leur noyau Linux pour bloquer l’utilisation d’une faille de sécurité qui se situait directement dans le noyau. Le danger concerne les systèmes partagés entre plusieurs utilisateurs, les clusters de conteneurs (Kubernetes, Docker…), etc. Un utilisateur lambda pourrait ainsi accéder aux données des autres utilisateurs.

Une faille dans le module cryptographique authencesn du noyau

Xint.io explique que cette faille a été découverte par le chercheur de l’entreprise Theori, Taeyang Lee, en étant assisté par l’IA de son outil Xint Code alors qu’il étudiait la manière dont le sous-système de cryptographie de Linux interagit avec les données stockées dans le page cache. C’est un système de cache qui permet au noyau d’avoir un accès plus rapide à certaines informations.

De fait, c’est un bug dans le module cryptographique authencesn du noyau Linux qui est en cause, accessible via l’interface de socket AF_ALG, en combinaison avec l’appel système splice(). « Un utilisateur peut ouvrir un socket, le lier à n’importe quel modèle AEAD (chiffrement authentifié avec données associées) et lancer le chiffrement ou le déchiffrement de données arbitraires. Aucun privilège n’est requis », explique Xint. De son côté, la fonction splice() transfère des données entre les descripteurs de fichiers et les pipes sans les copier, en renvoyant simplement les page caches par référence.

En utilisant un script Python très court (732 octets) qui ne fait appel qu’à des bibliothèques standard et ciblant le page cache du noyau, il est possible d’accéder au binaire qui permet d’être superutilisateur : /usr/bin/su. La modification se fait en mémoire, pas directement sur le périphérique de stockage.

Une ligne de commande suffit…

Nous l’avons testé sur un de nos VPS avec Ubuntu 24.04 LTS, nous sommes bien passés en root avec une seule ligne de commande en utilisant le script Python :

Les chercheurs ont constaté la faille sur les distributions Ubuntu 24.04 LTS, Amazon Linux 2023, RHEL 10.1 ou encore SUSE 16 et expliquent logiquement que « les autres distributions utilisant les noyaux concernés — Debian, Arch, Fedora, Rocky, Alma, Oracle, ainsi que les distributions embarquées — présentent le même comportement ».

Un patch pour le noyau a déjà été proposé et accepté. Celui-ci supprime une optimisation des opérations AEAD qui avait été ajoutée en 2017. « Mettez à jour le paquet du noyau de votre distribution avec une version incluant le commit a664bf3d603d de la branche principale », expliquent les chercheurs, « la plupart des principales distributions proposent désormais ce correctif », comme Debian (Forky et Sid), Ubuntu, par exemple mais la mise en place est encore en cours chez Red Hat et Suse.

Sans crier gare, la Chine sort un supercalculateur de 2,47 ExaFLOPS… sans GPU

30 avril 2026 à 09:43
Surprise !
Sans crier gare, la Chine sort un supercalculateur de 2,47 ExaFLOPS… sans GPU

La Chine a utilisé un supercalculateur pour entrainer une IA, rien d’exceptionnel si ce n’est la puissance de la machine : 1,2 ExaFLOPS… et elle n’était qu’à un quart de sa puissance théorique ! Si la Chine participait encore au Top500, LineShine pourrait être au coude à coude avec le numéro un mondial : El Capitan.

« La Chine vient de déployer un nouveau système Exascale, entièrement scalaire, appelé LineShine, hébergé par le Centre National de Supercalcul de Shenzhen (NSCC-SZ), avec une performance maximale de 2 EFlop/s », explique Stephane Requena (CTO du Genci, Supercomputers for Science and Industry) sur LinkedIn. Il ajoute que, « comme d’habitude, il ne s’agit pas d’une annonce officielle, mais d’une publication scientifique qui en fait l’écho ».

Il existe pour rappel un classement « officiel » des plus gros supercalculateurs dans le monde – le Top500 – mais la Chine n’y participe plus depuis plusieurs années. La raison serait principalement politique dans un contexte tendu avec les États-Unis, qui a placé le pays sur liste noire avec un embargo sur l’exportation de certaines technologies, notamment les GPU les plus puissants de NVIDIA.

Depuis, le pays reste discret sur ses capacités réelles et développe ses propres solutions maison, aussi bien matérielles que logicielles.

Belle bête : 12,4 millions de cœurs, 1 310 To de HBM !

La Chine n’envoie plus de résultats de benchs au Top500 et ne fait pas d’annonces officielles pour le lancement de nouveaux supercalculateurs, contrairement à l’Europe ou aux États-Unis qui jouent à la course à l’échalote. Il faut suivre les évolutions chinoises par la bande. C’est le cas aujourd’hui avec LineShine, un supercalculateur qui a servi pour entrainer un MLIP (Machine Learning Interatomic Potentials) qui a fait l’objet d’une publication scientifique il y a deux semaines.


Il reste 64% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ 45 ans plus tard, Microsoft publie le code source de 86-DOS 1.00

30 avril 2026 à 08:36


Quand la publication d’une archive prend des accents de découverte archéologique : Microsoft a annoncé lundi 28 avril la publication du « plus ancien code source DOS jamais découvert ». Le code en question fait effectivement figure d’antiquité à l’échelle de l’informatique moderne : il est daté du 28 avril 1981, et recouvre le noyau ainsi que certains composants clés de 86-DOS 1.00, le système d’exploitation écrit par Tim Paterson qui donnera naissance, quelques mois plus tard, à la première mouture de MS-DOS.

Hébergé sur GitHub, le répertoire dédié est baptisé « Paterson Listings », en référence aux sorties papier d’imprimante qui ont permis à ces lignes de code historiques de traverser l’histoire. Ce projet de conservation prend en effet naissance dans un email de Tim Paterson à Len Shustek, ancien président du conseil d’administration du célèbre Computer History Museum de Mountain View, en Californie.

Paterson y explique avoir retrouvé le code source de certaines des premières versions de MS-DOS, progressivement mises à disposition du public via le site du musée, puis directement sur GitHub par Microsoft en 2018. Dans cet email, Paterson signale aussi avoir retrouvé « une pile de 15 cm d’impressions de listes d’assembleur pour certains de ces programmes et probablement d’autres programmes connexes ».

C’est la numérisation de cette pile de papier qui permet aujourd’hui la publication, sous licence MIT, du code source de 86-DOS 1.00, de son noyau, et de certains utilitaires comme CHKDSK. La valeur de l’ensemble dépasse largement la simple capacité à compiler une vénérable antiquité logicielle, selon Microsoft :

« Il est également important de noter que ces documents ne sont pas de simples versions de système d’exploitation au sens traditionnel du terme. Dans plusieurs cas, il s’agit de documents représentant des états de travail à un instant T et des notes manuscrites, conservées par Tim Paterson lui-même. On peut les comparer à un historique des modifications d’un dépôt Git. Ils retracent la chronologie des changements, indiquant quelles fonctionnalités ont été implémentées, à quel moment, quelles erreurs ont été commises et comment elles ont été corrigées. »

Les archives de Tim Paterson sont diffusées à la fois sous forme de scans des sorties papier, et sous forme de code, récupéré via OCR.

Extrait des premières lignes du code de 86-DOS 1.0

Cloud souverain : des acteurs européens lancent leur propre label

30 avril 2026 à 07:57
Tout est bon dans le macaron
Cloud souverain : des acteurs européens lancent leur propre label

Pas convaincues par la grille de notation dévoilée par Bruxelles en fin d’année dernière, des entreprises européennes du cloud ont lancé leur propre référentiel pour des services infonuagiques « souverains et résilients ». Les fournisseurs ayant décroché leur badge ont fait l’objet d’audits approfondis.

Un badge rouge pour les fournisseurs de cloud « souverains », un bleu pour les entreprises « résilientes », et des chevrons vert et gris pour préciser respectivement l’impact environnemental de l’entreprise et son recours à du code open-source.

Ces logos vont fleurir chez 40 services (cloud public, stockage, Kubernetes) ayant franchi la course d’obstacles du cadre mis en place par le CISPE (Cloud Infrastructure Service Providers in Europe), le lobby des entreprises européennes du cloud.

Screenshot

Ce framework a été « développé, défini et testé exclusivement par des fournisseurs européens d’infrastructures cloud » pour certifier les garanties des entreprises en matière de souveraineté et de résilience. Le CISPE explique que le marché aujourd’hui est inondé d’offres « souveraines » non vérifiées : difficile dans ces conditions pour les clients de « comprendre ce qu’ils achètent réellement ».

Il n’en reste pas moins un problème de taille : que veut dire exactement souveraineté. Si tout le monde s’accorde plus ou moins sur les grandes lignes, les visions peuvent diverger dans les détails. Pour le Conseil d’État par exemple, la souveraineté « est historiquement et juridiquement la capacité d’exercer le « dernier mot », la liberté de choisir […] sans dépendre d’aucune autorité supérieure ».

Question de badges

Pour l’organisation, les définitions officielles de la souveraineté restent floues, et les méthodes d’évaluation manquent de transparence. Elle affirme que « les clients doivent pouvoir savoir si les services cloud sont protégés contre des ingérences juridiques étrangères (« Trump proof »), ou s’ils présentent des risques en matière d’interruption de service et d’accès aux données ».

Le cadre du CISPE est une réponse directe à la grille de souveraineté du cloud mise en place en octobre 2025 par la Commission européenne. Destinée aux pouvoirs publics des États membres de l’UE pour évaluer le niveau de souveraineté d’un fournisseur de services infonuagiques, cette grille repose sur un système assez simple : huit critères (souveraineté stratégique, juridique et juridictionnelle, données et IA…) dont les poids sont modulés par un système de pondération.

Ces critères permettent d’établir une classification des fournisseurs (SEAL, pour « Sovereignty Effectiveness Assurance Levels ») : SEAL 4 représente le maximum possible pour une offre vertueuse, SEAL 0 correspond à une offre sans souveraineté.

Le problème de cette grille, soulevé à l’époque par le CISPE, est qu’une entreprise dépendant d’une juridiction étrangère (au hasard, les États-Unis) peut tout de même marquer des points ailleurs et finir avec une « bonne » note. Comme le faisait remarquer à Next Audrey Louail, co-présidente d’Ecritel, « le critère d’extraterritorialité devrait être une condition sine qua non. »

« Il existe un besoin urgent de transparence et d’un cadre auditable pour éviter toute forme de « souveraineté washing » », affirme le CISPE. D’où le lancement de ce cadre, qui introduit deux approches à la fois distinctes et complémentaires pour assurer les clients et les autorités publiques qu’une offre « garantisse un contrôle effectif des données, des infrastructures, des charges de travail et des opérations », au-delà d’un macaron en cybersécurité qui ne suffit pas.

Souverain, résilient, ou les deux ?

Le référentiel du CISPE contient donc deux approches « distinctes mais complémentaires » : souveraine et résilience. La première concerne les services détenus, gouvernés et exploités au sein de la juridiction concernée. « Les puissances étrangères ne disposent d’aucun moyen, ni juridique ni technique, d’y accéder, d’interférer ou de les interrompre ». C’est ce que l’organisation appelle un contrôle « par conception ».

La seconde concerne les services sur lesquels le client conserve un contrôle effectif grâce à des garanties techniques et opérationnelles solides, même en présence d’éléments non souverains (une approche dite « par les capacités »). Parmi les garanties : le chiffrement géré par le client, la portabilité, les sauvegardes indépendantes, la possibilité de changer de fournisseur ou de redéployer les charges de travail.

« La souveraineté vise à prévenir le risque, la résilience permet au client d’y faire face », résume le CISPE qui assure que le référentiel résilient impose des contraintes telles qu’il n’autorise pas l’installation d’une porte dérobée. Lorsque des services pleinement souverains ne sont pas encore disponibles, « des alternatives résilientes peuvent constituer des solutions légitimes et efficaces pour les clients », indique encore le groupe.

Ce référentiel s’aligne avec le niveau 3 de Gaia-X, le plus haut palier de cette infrastructure européenne de données lancée en 2020 et qui a depuis connu quelques départs tonitruants. Le framework des fournisseurs étend cependant la notion de souveraineté au-delà de l’UE. 

Un service cloud hébergé au Japon par un fournisseur japonais pourrait obtenir un label « souverain au Japon », par exemple. Et s’il n’est pas souverain sur le Vieux Continent, il pourrait tout de même décrocher un label « résilient en Europe » en démontrant son interopérabilité et la présence de ressources locales pour réduire les sollicitations d’accès aux données depuis l’étranger. Pas question donc d’exclure certains services du marché : il s’agit de « renforcer la confiance dans le contrôle des données et des charges de travail dans le cloud ».

Les fournisseurs intéressés devront faire réaliser un audit auprès d’un tiers accrédité pour obtenir la certification et le droit de déclarer un service comme souverain ou résilient.

SecNumCloud 3.2 en France, tentative ratée avec EUCS High+ en Europe

Cette annonce arrive quelques jours après que Bruxelles attribue 180 millions d’euros de contrats à des acteurs du cloud, notamment des Français. Dans le lot, l’opérateur belge Proximus avec S3NS, la co-entreprise Thales et Google, ce qui avait fait bondir Francisco Mingorance, la secrétaire générale du CISPE : « Reconnaître S3NS, qui exploite la technologie cloud de Google, comme « souveraine » est clairement une erreur stratégique et menace d’institutionnaliser le blanchiment de souveraineté au plus haut niveau ».

En France, il existe déjà une qualification permettant de s’assurer d’une étanchéité aux lois extraterritoriales (américaines et chinoises pour ne citer qu’elles) : le référentiel SecNumCloud de l‘ANSSI, dont la version 3.2 de 2022 intégre « principalement des critères de protection vis-à-vis du droit extra-européen ». Pour rappel, S3NS a obtenu sa qualification fin 2025 par l’ANSSI.

Au niveau européen, EUCS (European Union Cybersecurity Certification Scheme for Cloud Services dans sa version longue) est un projet porté par l’agence européenne pour la cybersécurité. Il prévoyait quatre niveaux, dont High+ qui devait être calqué sur SecNumCloud, mais il n’en reste désormais que trois.

Alain Garnier, patron de Jamespot, ne cachait pas son agacement : « Le Cybersecurity Act 2 acte une chose très claire : EUCS parlera sécurité. Pas souveraineté […] La Commission européenne ferme la porte aux critères juridiques type Cloud Act. La tech américaine respire. La France grimace ». L’Allemagne et les Pays-Bas jugeaient ce seuil High+ trop exclusif et susceptible de freiner l’innovation.

Datacenters : 0,1 % de la chaleur fatale réutilisée en France, moins de 2 % en Europe

30 avril 2026 à 07:20
Fatality wins
Datacenters : 0,1 % de la chaleur fatale réutilisée en France, moins de 2 % en Europe

La valorisation de la chaleur fatale est une obligation pour les datacenters, avec un seuil minimum de réutilisation de 20 % pour la France. Nous sommes encore loin, très loin, avec moins de 1 % pour l’ensemble des datacenters. Au niveau européen ce n’est pas beaucoup mieux avec moins de 2 %.

La récupération de la chaleur fatale (celle produite par les serveurs dans les datacenters) est un enjeu important. Sur le plan environnemental tout d’abord afin d’éviter de « perdre » de l’énergie. Réglementaire ensuite, car des pays ont mis en place des seuils minimaux à atteindre.

C’est bien beau, mais où en sommes-nous en France et en Europe ? Il est toujours difficile de trouver des données fiables, et ce n’est pas l’Ademe qui dira le contraire. Outre-Atlantique aussi le sujet prend de l’importance.

La Commission européenne a mis en place en 2024 « un système commun de notation des centres de données à l’échelle de l’Union ». Il détaille les informations et indicateurs clés qui doivent être transmis par les exploitants des datacenters d’au moins 500 kW. Il y a notamment la chaleur fatale réutilisée (EREUSE en kWh), qui doit être « mesurée à la limite du centre de données, au point où l’énergie produite est distribuée pour être utilisée par l’autre partie ».

De plus, si une partie de cette chaleur est réutilisée dans le centre de données, elle doit être déduite de la chaleur fatale réutilisée. À partir de l’EREUSE et en le divisant par la consommation totale d’énergie du datacenter, on peut calculer le Facteur de réutilisation de l’énergie (ERF). Plus il est proche de 1, plus la chaleur fatale est réutilisée.

Si tous les datacenters ne renvoient pas encore les informations demandées, un premier rapport publié récemment permet d’y voir plus clair.

2 % en Europe, moins de 1 % en France…

Au niveau européen, la moyenne de la réutilisation de la chaleur sur l’ensemble des datacenters est inférieure à 2 %, selon la Commission européenne : « D’après les données disponibles, environ 1,9 % de toute la chaleur générée dans les centres de données (théoriquement basée sur la consommation énergétique totale) est réutilisée dans l’UE (ce qui correspondrait à un ERF de 0,019) ».


Il reste 78% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Le studio Spiders en liquidation suite à la chute de Nacon

30 avril 2026 à 06:47


Nouveau coup dur pour l’industrie française du jeu vidéo. Les difficultés d’Ubisoft font régulièrement la une de l’actualité, mais un autre acteur est en grand danger : le groupe Nacon, planté par sa maison mère BigBen Interactive. Un de ses studios, Spiders, vient de mettre la clé sous la porte.

Nacon est un nom qui compte dans le secteur du jeu vidéo en France. Distributeur de périphériques gaming, l’entreprise exerce également une importante activité d’édition : on lui doit plusieurs succès récents, comme RoboCop: Rogue CityHell is Us, les simulations de rallye WRC, ou encore l’adaptation officielle du Tour de France. Autrement dit, du AA au sens large : des jeux aux budgets intermédiaires visant à la fois le grand public et une niche de fans.

Depuis le début de l’année, La situation financière est bien mal engagée. Bigben Interactive, la maison mère de Nacon, avait alerté le 17 février d’un refus de ses créanciers d’un aménagement des modalités de remboursement partiel sur une dette de 43 millions d’euros. Effet domino : le 25 février, Nacon procédait à une déclaration de cessation de paiement auprès du tribunal de commerce de Lille Métropole, qui a ouvert une procédure de redressement judiciaire le 3 mars.

Vingt jours plus tard, quatre des filiales de Nacon sollicitaient auprès du même tribunal l’ouverture de procédures de redressement judiciaire (PDF). Il s’agit des studios Cyanide (racheté en 2018), KT Racing (anciennement Kylotonn, aussi racheté en 2018), Spiders (racheté en 2019) et Nacon Tech, qui s’est spécialisé dans la motion capture. Selon Origami, Nacon avait l’intention de rebondir en cédant deux de ses filiales, à savoir Spiders et Nacon Tech, d’ici la mi-avril.

Malheureusement, aucun chevalier blanc n’est venu à leur rescousse. Par conséquent, Spiders va fermer ses portes. « Allons droit au but pour éviter toute ambiguïté : après une longue période sans réponses claires, nous avons reçu la confirmation que Spiders est en liquidation », confirme le studio. « Qu’est-ce que cela signifie ? Cela veut dire que l’entreprise, dans son ensemble, n’existe plus. Nous cessons immédiatement nos activités ».

Steelrising, autre jeu Spiders sorti en 2022, se déroule durant une Révolution française uchronique où le joueur se bat contre l’armée d’automates de Louis XVI.

Spiders a été fondée à Paris en 2008. Après quelques piges pour Xbox, le studio s’est spécialisé dans les jeux de rôle : Of Orcs and Men avec Cyanide en 2012, Mars: War Logs l’année suivante, puis sa suite spirituelle The Technomancer. En 2019, GreedFall est assez bien accueilli et, trois ans plus tard, dépassait les deux millions de copies vendues. Le second volet, The Dying World, est sorti le 10 mars dernier. L’extension prévue sortira bien chez Nacon, mais ce sera complètement terminé pour Spiders par la suite. En interne, la dégradation des conditions de travail et des négociations salariales bloquées ont débouché sur une grève en 2024. 

Nacon n’a pas voulu commenter la fermeture du studio, ni l’impact que cela aura sur le reste de la procédure judiciaire en cours. Mais, ça n’augure rien de très bon. Le groupe a d’ailleurs reporté (PDF) la publication de son chiffre d’affaires pour l’année fiscale 2025/2026 au 18 mai, et celle des comptes annuels pour le 20 juillet.

☕️ YouTube généralise le mode « image dans l’image » gratuit dans ses apps mobiles

30 avril 2026 à 05:59


L’application mobile de YouTube va finalement permettre aux utilisateurs du monde entier de regarder une vidéo dans une vignette par-dessus l’interface de son smartphone ou d’une autre app (picture-in-picture), sans avoir à payer un abonnement Premium.

Fini les manipulations douteuses, exit les bidouilles de fortune, terminé les sorts de magie noire à base de sang de poulet séché jeté au sommet d’un volcan en fusion. YouTube a en effet annoncé que la fonction « image dans l’image » va se déployer auprès de tous les utilisateurs de son app mobile (iOS et Android) partout dans le monde « dans les prochains mois ». L’attente reste donc de mise, néanmoins cela reste une bonne nouvelle.

La fonction permet de continuer à regarder une vidéo YouTube en dehors de l’application. Elle bascule alors dans un format vignette que l’on peut agrandir ou réduire, tout en continuant à faire autre chose avec son smartphone. Ce « picture-in-picture » (PiP) est une fonction de base pour les apps vidéo depuis des années (dès 2015 sur les iPad sous iOS 9, à partir de 2020 sur les iPhone avec iOS 14, à partir d’Android 8 Oreo en 2017), mais elle est parfois bloquée derrière un paywall.

Chez Netflix, les abonnés à l’offre avec pub en sont privés, par exemple. Chez YouTube, il faut avoir souscrit à une formule payante pour en profiter… sauf aux États-Unis où tous les utilisateurs en bénéficient sans frais supplémentaires (depuis 2021 sur iPhone). Le reste du monde doit passer à la caisse, ou une bidouille bancale.

Ces dernières années, Google avait sporadiquement testé le PiP en Europe gratuitement chez une poignée d’utilisateurs, sans officialiser la fonction. C’est désormais chose faite. « Pour les utilisateurs en dehors des États-Unis, vous avez désormais accès au mode image dans l’image pour les contenus longs, hors musique, sur Android et iOS », écrit YouTube. Les vidéos musicales restent à l’écart, c’est un privilège toujours exclusif à Premium.

❌