Vue normale

Reçu — 10 avril 2026 Actualités numériques

☕️ L’ANFR ordonne le rappel de deux routeurs Wi-Fi Mikrotik et Wavlink

10 avril 2026 à 13:48


L’Agence nationale des fréquences (ANFR) a demandé à deux fabricants d’équipements réseau de rappeler un routeur Wi-Fi commercialisé sur le sol français en raison de manquements constatés au niveau des conditions d’utilisation du spectre radio dans la bande des 5 GHz.

Les deux appareils concernés sont le routeur Mantbox 52 15S de Mikrotik et le Wavlink Aerial HD6 AX1800. Les deux sociétés qui les commercialisent sont formellement invitées à retirer les références correspondantes du marché, et à rappeler les routeurs déjà vendus. L’ANFR rappelle qu’en l’absence de réponse adaptée de la part du fabricant, il incombe au distributeur de prendre lui-même les mesures de retrait et de rappel nécessaires.

Mikrotik mANTBox 52 15 s

L’ANFR ne précise pas la nature exacte des manquements constatés, mais donne un indice sur ses motivations : « L’utilisation de la bande 5 GHz repose notamment sur la mise en œuvre de mécanismes de partage du spectre visant à garantir la coexistence entre différents services et applications. Leur non-respect est susceptible de provoquer des brouillages préjudiciables, en particulier vis-à-vis de systèmes sensibles comme les radars météorologiques. »

Les deux routeurs concernés sont des appareils destinés au marché entreprise, et adaptés à une installation en extérieur. Le Mikrotik mANTBox 52 15 s est considéré comme en fin de vie par son fabricant.

☕️ L’ANFR ordonne le rappel de deux routeurs Wi-Fi Mikrotik et Wavlink

10 avril 2026 à 13:48


L’Agence nationale des fréquences (ANFR) a demandé à deux fabricants d’équipements réseau de rappeler un routeur Wi-Fi commercialisé sur le sol français en raison de manquements constatés au niveau des conditions d’utilisation du spectre radio dans la bande des 5 GHz.

Les deux appareils concernés sont le routeur Mantbox 52 15S de Mikrotik et le Wavlink Aerial HD6 AX1800. Les deux sociétés qui les commercialisent sont formellement invitées à retirer les références correspondantes du marché, et à rappeler les routeurs déjà vendus. L’ANFR rappelle qu’en l’absence de réponse adaptée de la part du fabricant, il incombe au distributeur de prendre lui-même les mesures de retrait et de rappel nécessaires.

Mikrotik mANTBox 52 15 s

L’ANFR ne précise pas la nature exacte des manquements constatés, mais donne un indice sur ses motivations : « L’utilisation de la bande 5 GHz repose notamment sur la mise en œuvre de mécanismes de partage du spectre visant à garantir la coexistence entre différents services et applications. Leur non-respect est susceptible de provoquer des brouillages préjudiciables, en particulier vis-à-vis de systèmes sensibles comme les radars météorologiques. »

Les deux routeurs concernés sont des appareils destinés au marché entreprise, et adaptés à une installation en extérieur. Le Mikrotik mANTBox 52 15 s est considéré comme en fin de vie par son fabricant.

L’État veut réduire ses dépendances extra-européennes, la Dinum bientôt sous Linux

10 avril 2026 à 13:10
Role model
L’État veut réduire ses dépendances extra-européennes, la Dinum bientôt sous Linux

L’État affiche ses ambitions en matière de souveraineté numérique, avec une première décision aux accents symboliques : la Dinum, sa direction interministérielle du numérique, se prépare à passer de Windows à Linux sur ses postes de travail. Elle coordonnera par ailleurs les travaux préparatoires des ministères et opérateurs publics, auxquels est confiée la mission de formaliser leur plan de réduction des dépendances extra-européennes d’ici l’automne.

Après les paroles, place aux actes ? Dans la foulée de son plan d’action dédié à la cybersécurité des établissements publics, l’État a dressé jeudi un panorama de ses nouveaux engagements en matière de « souveraineté numérique », présentée comme une réduction des « dépendances extra-européennes ».

Synthétisés dans un communiqué, ces engagements s’ouvrent par une première décision : la direction interministérielle du numérique (Dinum) va ainsi basculer ses postes de travail de Windows vers Linux.

La distribution retenue n’a pas été précisée, mais la Dinum développe en propre un projet de système d’exploitation sécurisé, basé sur NixOS et baptisé Sécurix. « Grace à NixOS, ce modèle de PC sécurisé est ré-instantiable pour des cas d’usages variables: poste multi-agent, poste multi-niveaux, poste en intranet seulement, etc. avec des équipes différentes, des souches de VPN différents », décrit le projet. Reste à voir si le logiciel, actuellement au stade de l’alpha et sans support proposé à date, est considéré comme suffisamment robuste pour un déploiement en production ?

En attendant, avec 234 agents inscrits à l’effectif, cette migration revêt une dimension essentiellement symbolique, mais elle se veut le signal d’une impulsion concrète, que la Dinum devra s’efforcer de faire infuser dans les différents ministères et opérateurs publics.

Des plans d’action dans chaque ministère d’ici l’automne

Elle est en effet chargée de coordonner un « plan interministériel de réduction des dépendances extra-européennes », dans le cadre duquel chaque établissement concerné doit formaliser son propre plan d’action d’ici l’automne. Les axes de travail évoqués sont les suivants : « poste de travail, outils collaboratifs, anti-virus, intelligence artificielle, bases de données, virtualisation, équipements réseau ».

« Ces plans d’action permettront de donner de la visibilité quant aux besoins de l’État à la filière industrielle du numérique, qui dispose d’atouts majeurs qu’il convient de valoriser par la commande publique », promettent les services de la Dinum. Une forme de gage de confiance par rapport aux attentes exprimées par les acteurs français du logiciel et du service informatique, mais aussi une réponse indirecte aux virulentes critiques émises en octobre 2025 par la Cour des comptes.

Cette dernière fustigeait notamment le manque de coordination entre les différents services de l’État, la sous-utilisation des clouds interministériels déjà déployés et l’absence d’une réelle stratégie chiffrée (en sens financier) en matière de souveraineté numérique.

En attendant de juger sur pièce des plans d’action attendus pour l’automne, la méthode adoptée se veut une réponse à la problématique soulevée en matière de coordination. Les annonces gouvernementales font d’ailleurs suite à un séminaire interministériel qui a également associé des opérateurs publics et privés. Avec des échanges fructueux, selon la Dinum :

« Le séminaire a permis de lancer une nouvelle méthode pour sortir des dépendances en formant des coalitions inédites associant ministères, grands opérateurs publics et acteurs privés. Cette démarche vise à fédérer les énergies publiques et privées autour de projets précis, en s’appuyant notamment sur les communs numériques et les standards d’interopérabilité (initiatives Open-Interop, OpenBuro). »

Il appartiendra par ailleurs à la direction des achats de l’État (DAE) de cartographier les dépendances aux solutions extra-européennes, pour « affiner » un objectif chiffré de réduction qui n’a, pour l’instant, pas été communiqué.

L’Assurance maladie adopte certains services de LaSuite

Ses postes de travail tournent toujours sous Windows, mais la Caisse nationale d’assurance maladie a annoncé le 1er avril dernier le déploiement prochain de certains services issus de LaSuite auprès de ses 80 000 agents. Rappelons que LaSuite, ou la Suite numérique, est un ensemble d’outils et de services développés en interne par la Dinum, en open source et à destination des établissements publics.

« La convention signée aujourd’hui marque une nouvelle étape : elle prévoit le développement de fonctionnalités spécifiques aux besoins de l’Assurance Maladie, une intégration renforcée de LaSuite dans les processus métiers de la Cnam, ainsi qu’une contribution active de la Cnam à la feuille de route technique de la solution », indiquait alors l’organisme, sans préciser le périmètre exact de la migration.

Dans sa communication du 9 avril, la Dinum évoque quant à elle trois des outils du socle numérique interministériel : l’application de messagerie Tchap , le service Visio (dont l’usage est censé être généralisé à l’intégralité des agents de l’État d’ici 2027) et l’outil France Transfert.

Reste à voir ce que décidera la Cnam pour le reste de ses outils, et dans quelle mesure les solutions intégrées à LaSuite seront susceptibles d’entraîner le décommissionnement de technologies extra-européennes. Aujourd’hui, la Cnam exploite par exemple Exchange et Sharepoint (Microsoft), avec un hébergement assuré en propre, protégé par des solutions Proofpoint (US) et Trend Micro (Japon).

L’État veut réduire ses dépendances extra-européennes, la Dinum bientôt sous Linux

10 avril 2026 à 13:10
Role model
L’État veut réduire ses dépendances extra-européennes, la Dinum bientôt sous Linux

L’État affiche ses ambitions en matière de souveraineté numérique, avec une première décision aux accents symboliques : la Dinum, sa direction interministérielle du numérique, se prépare à passer de Windows à Linux sur ses postes de travail. Elle coordonnera par ailleurs les travaux préparatoires des ministères et opérateurs publics, auxquels est confiée la mission de formaliser leur plan de réduction des dépendances extra-européennes d’ici l’automne.

Après les paroles, place aux actes ? Dans la foulée de son plan d’action dédié à la cybersécurité des établissements publics, l’État a dressé jeudi un panorama de ses nouveaux engagements en matière de « souveraineté numérique », présentée comme une réduction des « dépendances extra-européennes ».

Synthétisés dans un communiqué, ces engagements s’ouvrent par une première décision : la direction interministérielle du numérique (Dinum) va ainsi basculer ses postes de travail de Windows vers Linux.

La distribution retenue n’a pas été précisée, mais la Dinum développe en propre un projet de système d’exploitation sécurisé, basé sur NixOS et baptisé Sécurix. « Grace à NixOS, ce modèle de PC sécurisé est ré-instantiable pour des cas d’usages variables: poste multi-agent, poste multi-niveaux, poste en intranet seulement, etc. avec des équipes différentes, des souches de VPN différents », décrit le projet. Reste à voir si le logiciel, actuellement au stade de l’alpha et sans support proposé à date, est considéré comme suffisamment robuste pour un déploiement en production ?

En attendant, avec 234 agents inscrits à l’effectif, cette migration revêt une dimension essentiellement symbolique, mais elle se veut le signal d’une impulsion concrète, que la Dinum devra s’efforcer de faire infuser dans les différents ministères et opérateurs publics.

Des plans d’action dans chaque ministère d’ici l’automne

Elle est en effet chargée de coordonner un « plan interministériel de réduction des dépendances extra-européennes », dans le cadre duquel chaque établissement concerné doit formaliser son propre plan d’action d’ici l’automne. Les axes de travail évoqués sont les suivants : « poste de travail, outils collaboratifs, anti-virus, intelligence artificielle, bases de données, virtualisation, équipements réseau ».

« Ces plans d’action permettront de donner de la visibilité quant aux besoins de l’État à la filière industrielle du numérique, qui dispose d’atouts majeurs qu’il convient de valoriser par la commande publique », promettent les services de la Dinum. Une forme de gage de confiance par rapport aux attentes exprimées par les acteurs français du logiciel et du service informatique, mais aussi une réponse indirecte aux virulentes critiques émises en octobre 2025 par la Cour des comptes.

Cette dernière fustigeait notamment le manque de coordination entre les différents services de l’État, la sous-utilisation des clouds interministériels déjà déployés et l’absence d’une réelle stratégie chiffrée (en sens financier) en matière de souveraineté numérique.

En attendant de juger sur pièce des plans d’action attendus pour l’automne, la méthode adoptée se veut une réponse à la problématique soulevée en matière de coordination. Les annonces gouvernementales font d’ailleurs suite à un séminaire interministériel qui a également associé des opérateurs publics et privés. Avec des échanges fructueux, selon la Dinum :

« Le séminaire a permis de lancer une nouvelle méthode pour sortir des dépendances en formant des coalitions inédites associant ministères, grands opérateurs publics et acteurs privés. Cette démarche vise à fédérer les énergies publiques et privées autour de projets précis, en s’appuyant notamment sur les communs numériques et les standards d’interopérabilité (initiatives Open-Interop, OpenBuro). »

Il appartiendra par ailleurs à la direction des achats de l’État (DAE) de cartographier les dépendances aux solutions extra-européennes, pour « affiner » un objectif chiffré de réduction qui n’a, pour l’instant, pas été communiqué.

L’Assurance maladie adopte certains services de LaSuite

Ses postes de travail tournent toujours sous Windows, mais la Caisse nationale d’assurance maladie a annoncé le 1er avril dernier le déploiement prochain de certains services issus de LaSuite auprès de ses 80 000 agents. Rappelons que LaSuite, ou la Suite numérique, est un ensemble d’outils et de services développés en interne par la Dinum, en open source et à destination des établissements publics.

« La convention signée aujourd’hui marque une nouvelle étape : elle prévoit le développement de fonctionnalités spécifiques aux besoins de l’Assurance Maladie, une intégration renforcée de LaSuite dans les processus métiers de la Cnam, ainsi qu’une contribution active de la Cnam à la feuille de route technique de la solution », indiquait alors l’organisme, sans préciser le périmètre exact de la migration.

Dans sa communication du 9 avril, la Dinum évoque quant à elle trois des outils du socle numérique interministériel : l’application de messagerie Tchap , le service Visio (dont l’usage est censé être généralisé à l’intégralité des agents de l’État d’ici 2027) et l’outil France Transfert.

Reste à voir ce que décidera la Cnam pour le reste de ses outils, et dans quelle mesure les solutions intégrées à LaSuite seront susceptibles d’entraîner le décommissionnement de technologies extra-européennes. Aujourd’hui, la Cnam exploite par exemple Exchange et Sharepoint (Microsoft), avec un hébergement assuré en propre, protégé par des solutions Proofpoint (US) et Trend Micro (Japon).

☕️ Amazon envisage de vendre ses puces Trainium à des tiers

10 avril 2026 à 09:26


Après le commerce en ligne et le cloud computing, Amazon pourrait-il devenir un vendeur de puces, et donc un concurrent direct de NVIDIA ? L’hypothèse est explicitement évoquée par Andy Jassy, CEO d’Amazon, dans sa lettre annuelle aux actionnaires, publiée le 9 avril.

Il y décrit comment les semiconducteurs sont devenus une activité de premier plan pour le groupe, avec un impact financier loin d’être anecdotique, même s’il ne transparait pas directement dans le compte de résultat. Les puces conçues par Amazon sont en effet aujourd’hui destinées, de façon quasi exclusives, aux datacenters et services Amazon, à commencer par Bedrock. Elles n’en représentent pas moins, selon Jassy, une activité supérieure à 20 milliards de dollars sur 2025, avec une croissance annuelle à trois chiffres.

« Si notre activité de puces était indépendante et vendait les puces produites cette année à AWS et à d’autres tiers (comme le font d’autres leaders du marché), notre chiffre d’affaires annuel avoisinerait les 50 milliards de dollars, écrit Andy Jassy, avant d’ouvrir la porte à une possible mise sur le marché : La demande pour nos puces est telle qu’il est fort probable que nous en vendions des racks entiers à des tiers à l’avenir. »

AWS re:Invent 2025 Trainium3
Amazon a présenté les puces Trainium 3 fin 2025

Le CEO illustre à dessein son propos en rappelant l’expérience déjà acquise avec ses processeurs Graviton, lancés en 2018. « Dans le domaine des processeurs, la quasi-totalité des charges de travail s’exécutait sur des puces Intel jusqu’à l’invention de Graviton en 2018. Graviton, qui offre un rapport prix/performances jusqu’à 40 % supérieur à celui des autres processeurs x86, est désormais largement utilisé par 98 % des 1 000 principaux clients EC2 ».

Les puces Trainium 3 annoncées fin 2025 et les futures Trainium 4 connaitraient des trajectoires similaires. Andy Jassy affirme ainsi que la production de Trainium 3 est déjà quasi intégralement vendue en interne, et qu’une part significative du contingent Trainium 4 est déjà réservée, alors que la production de masse n’est attendue que d’ici 18 mois.

Si l’interne reste présenté comme la priorité numéro un, Amazon n’exclut donc pas de mettre ses puces directement sur le marché, ce qui serait à la fois une façon de s’ouvrir un nouveau marché et d’améliorer ses économies d’échelle. Une stratégie déjà envisagée par Google : le moteur de recherche a en effet commencé à proposer ses TPU à des acteurs tiers du cloud computing tels que Crusoe, CoreWeave ou Fluidstack. La vente devient ainsi une alternative au modèle traditionnel de location de ressources qui constitue le socle des offres AWS ou GCP.

L’arrivée d’Amazon sur le marché de la fourniture de composants dédiés à l’IA serait une pierre lancée dans le jardin de l’actuel leader du marché. « Nous entretenons un partenariat solide avec NVIDIA, nous aurons toujours des clients qui choisissent d’utiliser des solutions NVIDIA et nous continuerons à faire d’AWS la plateforme de choix pour exécuter des solutions NVIDIA. Cependant, les clients recherchent un meilleur rapport prix/performances. Nous avons déjà connu cette situation. » prévient Andy Jassy.


☕️ Amazon envisage de vendre ses puces Trainium à des tiers

10 avril 2026 à 09:26


Après le commerce en ligne et le cloud computing, Amazon pourrait-il devenir un vendeur de puces, et donc un concurrent direct de NVIDIA ? L’hypothèse est explicitement évoquée par Andy Jassy, CEO d’Amazon, dans sa lettre annuelle aux actionnaires, publiée le 9 avril.

Il y décrit comment les semiconducteurs sont devenus une activité de premier plan pour le groupe, avec un impact financier loin d’être anecdotique, même s’il ne transparait pas directement dans le compte de résultat. Les puces conçues par Amazon sont en effet aujourd’hui destinées, de façon quasi exclusives, aux datacenters et services Amazon, à commencer par Bedrock. Elles n’en représentent pas moins, selon Jassy, une activité supérieure à 20 milliards de dollars sur 2025, avec une croissance annuelle à trois chiffres.

« Si notre activité de puces était indépendante et vendait les puces produites cette année à AWS et à d’autres tiers (comme le font d’autres leaders du marché), notre chiffre d’affaires annuel avoisinerait les 50 milliards de dollars, écrit Andy Jassy, avant d’ouvrir la porte à une possible mise sur le marché : La demande pour nos puces est telle qu’il est fort probable que nous en vendions des racks entiers à des tiers à l’avenir. »

AWS re:Invent 2025 Trainium3
Amazon a présenté les puces Trainium 3 fin 2025

Le CEO illustre à dessein son propos en rappelant l’expérience déjà acquise avec ses processeurs Graviton, lancés en 2018. « Dans le domaine des processeurs, la quasi-totalité des charges de travail s’exécutait sur des puces Intel jusqu’à l’invention de Graviton en 2018. Graviton, qui offre un rapport prix/performances jusqu’à 40 % supérieur à celui des autres processeurs x86, est désormais largement utilisé par 98 % des 1 000 principaux clients EC2 ».

Les puces Trainium 3 annoncées fin 2025 et les futures Trainium 4 connaitraient des trajectoires similaires. Andy Jassy affirme ainsi que la production de Trainium 3 est déjà quasi intégralement vendue en interne, et qu’une part significative du contingent Trainium 4 est déjà réservée, alors que la production de masse n’est attendue que d’ici 18 mois.

Si l’interne reste présenté comme la priorité numéro un, Amazon n’exclut donc pas de mettre ses puces directement sur le marché, ce qui serait à la fois une façon de s’ouvrir un nouveau marché et d’améliorer ses économies d’échelle. Une stratégie déjà envisagée par Google : le moteur de recherche a en effet commencé à proposer ses TPU à des acteurs tiers du cloud computing tels que Crusoe, CoreWeave ou Fluidstack. La vente devient ainsi une alternative au modèle traditionnel de location de ressources qui constitue le socle des offres AWS ou GCP.

L’arrivée d’Amazon sur le marché de la fourniture de composants dédiés à l’IA serait une pierre lancée dans le jardin de l’actuel leader du marché. « Nous entretenons un partenariat solide avec NVIDIA, nous aurons toujours des clients qui choisissent d’utiliser des solutions NVIDIA et nous continuerons à faire d’AWS la plateforme de choix pour exécuter des solutions NVIDIA. Cependant, les clients recherchent un meilleur rapport prix/performances. Nous avons déjà connu cette situation. » prévient Andy Jassy.


☕️ Mastodon lance des Collections ouvertement inspirées de Bluesky

10 avril 2026 à 08:45


Mastodon a donné jeudi un avant-goût de la prochaine fonctionnalité phare de sa version 4.6, pensée principalement pour accompagner les nouveaux utilisateurs dans leur découverte du fédivers : les Collections. Ouvertement inspirées des « starter packs » proposées par Bluesky, ces collections ont vocation à réunir au sein d’une même enveloppe un ensemble de comptes à suivre.

L’implémentation se veut cependant plus fine que celle adoptée par Bluesky : Mastodon prévoit en effet un système permettant à l’internaute de consulter les Collections auxquelles son compte a été ajouté et éventuellement d’en disparaitre, sans avoir à bloquer la personne qui en est à l’origine. Mastodon fait par ailleurs le choix de limiter ses Collections à 25 comptes, sans s’interdire d’étendre cette limite plus tard.

« Sur Mastodon, les Collections continueront de privilégier la qualité à la quantité. Nous pensons que des Collections plus petites permettront de réduire les comportements de spam parfois observés sur Bluesky (où les Packs de démarrage sont limités à 150 comptes) », commente Imani Joy, responsable du design dans la nouvelle équipe qui préside aux destinées du projet, selon qui la bonne formule se situe sans doute quelque part entre 25 et 80 comptes par liste. « Cette fourchette reste large, et nous avons choisi de commencer par la limite inférieure car il est techniquement beaucoup plus simple de l’augmenter ultérieurement que de la réduire ».

Création d’une Collection sur Mastodon

Avec ces Collections, Mastodon offre donc la possibilité de partager publiquement une sélection de comptes à suivre, là où les « listes » disponibles de longue date sont à usage privé, et le resteront vraisemblablement. « De nombreuses personnes ont demandé des listes publiques et partageables, mais nous ne disposons pas actuellement de l’infrastructure nécessaire pour développer un système d’une telle envergure », indique Imani Joy.

Les Collections peuvent à ce stade être partagées publiquement via un lien, mais il n’est pas encore prévu de les rendre accessibles via la recherche ou les outils de découverte. À terme, elles devraient toutefois être proposées comme outils de suggestion aux administrateurs d’instance.

Mastodon indique par ailleurs préférer ne pas proposer, pour l’instant, de bouton permettant de suivre automatiquement tous les comptes d’une Collection. « Nous envisageons cette possibilité, mais nous souhaitons l’aborder avec prudence. Nous avons constaté que certains utilisateurs de Bluesky s’abonnaient massivement à des comptes issus de packs de démarrage obsolètes, pour ensuite se retrouver avec un flux d’actualités de qualité médiocre ».

La version 4.6 est en cours de déploiement sur l’instance mastodon.social, et fera l’objet d’une diffusion plus large dans les prochaines semaines.


☕️ Mastodon lance des Collections ouvertement inspirées de Bluesky

10 avril 2026 à 08:45


Mastodon a donné jeudi un avant-goût de la prochaine fonctionnalité phare de sa version 4.6, pensée principalement pour accompagner les nouveaux utilisateurs dans leur découverte du fédivers : les Collections. Ouvertement inspirées des « starter packs » proposées par Bluesky, ces collections ont vocation à réunir au sein d’une même enveloppe un ensemble de comptes à suivre.

L’implémentation se veut cependant plus fine que celle adoptée par Bluesky : Mastodon prévoit en effet un système permettant à l’internaute de consulter les Collections auxquelles son compte a été ajouté et éventuellement d’en disparaitre, sans avoir à bloquer la personne qui en est à l’origine. Mastodon fait par ailleurs le choix de limiter ses Collections à 25 comptes, sans s’interdire d’étendre cette limite plus tard.

« Sur Mastodon, les Collections continueront de privilégier la qualité à la quantité. Nous pensons que des Collections plus petites permettront de réduire les comportements de spam parfois observés sur Bluesky (où les Packs de démarrage sont limités à 150 comptes) », commente Imani Joy, responsable du design dans la nouvelle équipe qui préside aux destinées du projet, selon qui la bonne formule se situe sans doute quelque part entre 25 et 80 comptes par liste. « Cette fourchette reste large, et nous avons choisi de commencer par la limite inférieure car il est techniquement beaucoup plus simple de l’augmenter ultérieurement que de la réduire ».

Création d’une Collection sur Mastodon

Avec ces Collections, Mastodon offre donc la possibilité de partager publiquement une sélection de comptes à suivre, là où les « listes » disponibles de longue date sont à usage privé, et le resteront vraisemblablement. « De nombreuses personnes ont demandé des listes publiques et partageables, mais nous ne disposons pas actuellement de l’infrastructure nécessaire pour développer un système d’une telle envergure », indique Imani Joy.

Les Collections peuvent à ce stade être partagées publiquement via un lien, mais il n’est pas encore prévu de les rendre accessibles via la recherche ou les outils de découverte. À terme, elles devraient toutefois être proposées comme outils de suggestion aux administrateurs d’instance.

Mastodon indique par ailleurs préférer ne pas proposer, pour l’instant, de bouton permettant de suivre automatiquement tous les comptes d’une Collection. « Nous envisageons cette possibilité, mais nous souhaitons l’aborder avec prudence. Nous avons constaté que certains utilisateurs de Bluesky s’abonnaient massivement à des comptes issus de packs de démarrage obsolètes, pour ensuite se retrouver avec un flux d’actualités de qualité médiocre ».

La version 4.6 est en cours de déploiement sur l’instance mastodon.social, et fera l’objet d’une diffusion plus large dans les prochaines semaines.


Reçu — 9 avril 2026 Actualités numériques

☕️ Keychron publie les plans et les modèles 3D de ses claviers et souris

9 avril 2026 à 13:43


Spécialiste du clavier mécanique, Keychron fait un pas supplémentaire en direction de la communauté des makers avec la publication, sur GitHub, des modèles 3D utilisés dans la fabrication des principales références de son catalogue.

Pour la plupart de ses claviers, on peut ainsi télécharger les fichiers de CAO qui décrivent dans le détail la conception du boîtier, les découpes de la plate (la plaque située entre les commutateurs et le PCB), les spécifications des différents composants, etc.

Modèle 3D du Keychron Q10 – crédit Keychron

Selon les éléments concernés, Keychron propose des formats faisant office de standards industriels, a minima pour la visualisation, avec DXF (.dxf) ou DWG (.dwg) pour les plans, et STEP (.stp) pour la plupart des modèles 3D. Les internautes sont invités à enrichir le dépôt avec leurs propres contributions, qui peuvent prendre la forme de corrections apportées à des modèles existants, ou de configurations alternatives à celles commercialisées par Keychron.

« Nous pensons que la mise à disposition des fichiers matériels de production constitue une contribution significative à la communauté plus large du matériel et des claviers ! », se réjouit l’entreprise. Un élément manque toutefois à l’appel : Keychron ne partage pas le plan des PCB de ses claviers : sur ce volet électronique, les sources restent fermées.

Plan pour les découpes d’une plaque de clavier – crédit Keychron

Notons par ailleurs que si les sources de certains éléments matériels sont ouvertes, Keychron restreint explicitement la réutilisation commerciale : « Tous les fichiers de conception matérielle sont fournis exclusivement pour un usage personnel, éducatif et non commercial ».

Keychron avait déjà par le passé publié certains éléments de conception de ses claviers les plus populaires, mais sans étendre cet effort à l’ensemble de son catalogue comme ici (à l’exception de quelques modèles spécifiques comme son récent clavier céramique). L’entreprise exploite et collabore également de longue date à des firmwares ouverts comme QMK ou ZMK.

☕️ Keychron publie les plans et les modèles 3D de ses claviers et souris

9 avril 2026 à 13:43


Spécialiste du clavier mécanique, Keychron fait un pas supplémentaire en direction de la communauté des makers avec la publication, sur GitHub, des modèles 3D utilisés dans la fabrication des principales références de son catalogue.

Pour la plupart de ses claviers, on peut ainsi télécharger les fichiers de CAO qui décrivent dans le détail la conception du boîtier, les découpes de la plate (la plaque située entre les commutateurs et le PCB), les spécifications des différents composants, etc.

Modèle 3D du Keychron Q10 – crédit Keychron

Selon les éléments concernés, Keychron propose des formats faisant office de standards industriels, a minima pour la visualisation, avec DXF (.dxf) ou DWG (.dwg) pour les plans, et STEP (.stp) pour la plupart des modèles 3D. Les internautes sont invités à enrichir le dépôt avec leurs propres contributions, qui peuvent prendre la forme de corrections apportées à des modèles existants, ou de configurations alternatives à celles commercialisées par Keychron.

« Nous pensons que la mise à disposition des fichiers matériels de production constitue une contribution significative à la communauté plus large du matériel et des claviers ! », se réjouit l’entreprise. Un élément manque toutefois à l’appel : Keychron ne partage pas le plan des PCB de ses claviers : sur ce volet électronique, les sources restent fermées.

Plan pour les découpes d’une plaque de clavier – crédit Keychron

Notons par ailleurs que si les sources de certains éléments matériels sont ouvertes, Keychron restreint explicitement la réutilisation commerciale : « Tous les fichiers de conception matérielle sont fournis exclusivement pour un usage personnel, éducatif et non commercial ».

Keychron avait déjà par le passé publié certains éléments de conception de ses claviers les plus populaires, mais sans étendre cet effort à l’ensemble de son catalogue comme ici (à l’exception de quelques modèles spécifiques comme son récent clavier céramique). L’entreprise exploite et collabore également de longue date à des firmwares ouverts comme QMK ou ZMK.

Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

9 avril 2026 à 10:22
On m'a dit de venir, pas de venir avec des bagages, pourquoi ?
Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

Le Sénat a voté mercredi 8 avril à l’unanimité la proposition de loi visant à instaurer une présomption d’utilisation de contenus culturels protégés par un droit d’auteur au niveau des éditeurs d’IA. Le texte, qui doit maintenant passer à l’Assemblée nationale, inverse donc le rapport de force, puisqu’en cas de contentieux, ce sera aux acteurs de la tech de prouver qu’ils n’ont pas exploité un contenu de façon illicite.

Beaumarchais a une nouvelle fois été convoqué sous les ors de la République mercredi 8 avril, lors des débats du Sénat autour de la proposition de loi « relative à l’instauration d’une présomption d’utilisation des contenus culturels par les fournisseurs d’intelligence artificielle ». Et les défenseurs du droit d’auteur n’ont pas été déçus, puisque l’article unique du texte a été adopté à l’unanimité, au terme d’une séance de débat plutôt consensuelle : le soutien à l’innovation ne doit pas se faire au détriment de la création culturelle et cette dernière doit être rémunérée à sa juste valeur dès lors qu’elle est exploitée.

Inverser la charge de la preuve pour forcer la transparence

Le texte adopté en première lecture dispose que, sauf preuve contraire, une œuvre protégée par un droit d’auteur ou un droit voisin « est présumée avoir été utilisée par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».

Autrement dit, si un ayant droit estime qu’une œuvre a été utilisée par un modèle (par exemple, parce qu’un chatbot est capable de citer des extraits d’un livre), c’est à l’opérateur de l’IA en question qu’il appartiendra de prouver qu’il n’a commis aucune utilisation irrégulière. Le texte instaure donc une inversion de la charge de la preuve, en instaurant une présomption d’exploitation.

« Ce ne sera plus au créateur de prouver le moissonnage de son œuvre, mais au fournisseur d’IA de prouver qu’il ne l’a pas utilisée. Notre objectif n’est pas de multiplier les procès, mais d’inciter les acteurs de l’IA à abandonner certains comportements de prédation pour un modèle fondé sur la transparence et la négociation. Aujourd’hui, les créateurs ne négocient pas ; ils subissent », a fait valoir en séance la sénatrice Agnès Evren (LR), auteure de la proposition de loi.

Elle a par ailleurs pris soin d’affirmer que ce renversement avait été validé par le Conseil d’État, et souligné que l’esprit de la proposition de loi rejoignait les recommandations formulées dans le récent rapport d’Alex Voss voté le 11 mars dernier au Parlement européen. Dans son texte, celui-ci invite en effet Bruxelles à « proposer l’établissement d’une présomption réfragable », mais il restreint cette dernière aux cas de non-respect d’un certain nombre d’obligations de transparence.

Le Sénat français va donc un cran plus loin, arguant du principe que ce renversement est indispensable pour contraindre les éditeurs d’IA à faire preuve d’une vraie transparence sur leurs données d’entraînement. « On nous oppose souvent le secret des affaires, ce bouclier dont les entreprises d’IA usent et abusent. Or si l’algorithme relève du secret industriel, les données pour le nourrir sont le fruit du travail d’autrui. La transparence n’est pas une menace pour l’innovation, c’est la condition de l’acceptabilité sociale de l’IA », a défendu Catherine Morin-Desailly (Union centriste).

Représenté par ses ministres de la Culture et de l’Intelligence artificielle et du numérique, le gouvernement a pour sa part tenu une position plus nuancée.

« Le Gouvernement partage l’objectif du mécanisme proposé par la commission, mais le contentieux ne peut pas constituer notre unique horizon, car il entraîne des risques : judiciarisation excessive, insécurité juridique prolongée, multiplication des procédures. Mieux vaut un bon accord qu’un mauvais procès », a prudemment avancé Catherine Pégard, ministre de la Culture.

Anne Le Hénanff, ministre déléguée chargée de l’intelligence artificielle et du numérique, a quant à elle plus fermement défendu le point de vue des acteurs de la tech :

« Avec une telle présomption, l’entreprise devra apporter la preuve négative de l’utilisation de données culturelles, via l’analyse de dizaines de téraoctets de données ; c’est tout simplement impossible ! Tous les acteurs économiques qui ont développé des modèles d’IA – entreprises du CAC 40, TPE-PME, start-up – risqueraient un contentieux, ce qui serait dévastateur pour notre économie ».

Elle aussi appelle à privilégier la négociation au contentieux, en s’engageant à soutenir « toutes les initiatives contractuelles entre les acteurs de l’IA et ceux de la culture », ainsi qu’à participer aux évolutions à venir du cadre européen, « car c’est en agissant au bon niveau que nous obtiendrons la sécurité juridique nécessaire ».

Négocier, mais autour de quelle table ?

L’attente est-elle entendable du point de vue des ayants droit, alors que les illustrations d’utilisation à grande échelle de contenus protégés se multiplient ? Dans le sillage du procès ouvert aux États-Unis contre Meta pour entraînement de ses modèles sur les contenus de la bibliothèque clandestine LibGen, plusieurs articles de Mediapart ont montré ces derniers mois le recours à des contenus protégés par l’entreprise française Mistral AI.

Plus récemment, une nouvelle enquête, publiée le 6 avril, démontre que des centaines de milliers d’ouvrages ou d’articles scientifiques accompagnés de la mention « tous droits réservés » figurent dans l’immense jeu de données finepdfs hébergé sur Hugging Face.

Au-delà de sa dimension contentieuse, la proposition de loi serait, dans ce contexte et pour ses promoteurs, un accélérateur visant à sortir du statu quo dont profitent les acteurs de l’IA.

« Il y a urgence, car le pillage continue. J’ai l’impression que quand on montre un peu de fermeté, certains, qui s’y refusaient, viennent à la table des négociations », estime Max Brisson (LR). Avec, déjà, des effets positifs, selon Laure Darcos (groupe Les indépendants), rapporteure du texte :

« Notre mécanisme, juridiquement solide et politiquement efficace, produit d’ores et déjà ses effets : le PDG de Mistral AI a proposé une contribution des entreprises d’IA en fonction de leur chiffre d’affaires pour accéder aux contenus protégés. »

Reste à voir si cette déclaration d’intention suffira à faire pencher la balance lors de l’examen du texte à l’Assemblée nationale.

Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

9 avril 2026 à 10:22
On m'a dit de venir, pas de venir avec des bagages, pourquoi ?
Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

Le Sénat a voté mercredi 8 avril à l’unanimité la proposition de loi visant à instaurer une présomption d’utilisation de contenus culturels protégés par un droit d’auteur au niveau des éditeurs d’IA. Le texte, qui doit maintenant passer à l’Assemblée nationale, inverse donc le rapport de force, puisqu’en cas de contentieux, ce sera aux acteurs de la tech de prouver qu’ils n’ont pas exploité un contenu de façon illicite.

Beaumarchais a une nouvelle fois été convoqué sous les ors de la République mercredi 8 avril, lors des débats du Sénat autour de la proposition de loi « relative à l’instauration d’une présomption d’utilisation des contenus culturels par les fournisseurs d’intelligence artificielle ». Et les défenseurs du droit d’auteur n’ont pas été déçus, puisque l’article unique du texte a été adopté à l’unanimité, au terme d’une séance de débat plutôt consensuelle : le soutien à l’innovation ne doit pas se faire au détriment de la création culturelle et cette dernière doit être rémunérée à sa juste valeur dès lors qu’elle est exploitée.

Inverser la charge de la preuve pour forcer la transparence

Le texte adopté en première lecture dispose que, sauf preuve contraire, une œuvre protégée par un droit d’auteur ou un droit voisin « est présumée avoir été utilisée par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».

Autrement dit, si un ayant droit estime qu’une œuvre a été utilisée par un modèle (par exemple, parce qu’un chatbot est capable de citer des extraits d’un livre), c’est à l’opérateur de l’IA en question qu’il appartiendra de prouver qu’il n’a commis aucune utilisation irrégulière. Le texte instaure donc une inversion de la charge de la preuve, en instaurant une présomption d’exploitation.

« Ce ne sera plus au créateur de prouver le moissonnage de son œuvre, mais au fournisseur d’IA de prouver qu’il ne l’a pas utilisée. Notre objectif n’est pas de multiplier les procès, mais d’inciter les acteurs de l’IA à abandonner certains comportements de prédation pour un modèle fondé sur la transparence et la négociation. Aujourd’hui, les créateurs ne négocient pas ; ils subissent », a fait valoir en séance la sénatrice Agnès Evren (LR), auteure de la proposition de loi.

Elle a par ailleurs pris soin d’affirmer que ce renversement avait été validé par le Conseil d’État, et souligné que l’esprit de la proposition de loi rejoignait les recommandations formulées dans le récent rapport d’Alex Voss voté le 11 mars dernier au Parlement européen. Dans son texte, celui-ci invite en effet Bruxelles à « proposer l’établissement d’une présomption réfragable », mais il restreint cette dernière aux cas de non-respect d’un certain nombre d’obligations de transparence.

Le Sénat français va donc un cran plus loin, arguant du principe que ce renversement est indispensable pour contraindre les éditeurs d’IA à faire preuve d’une vraie transparence sur leurs données d’entraînement. « On nous oppose souvent le secret des affaires, ce bouclier dont les entreprises d’IA usent et abusent. Or si l’algorithme relève du secret industriel, les données pour le nourrir sont le fruit du travail d’autrui. La transparence n’est pas une menace pour l’innovation, c’est la condition de l’acceptabilité sociale de l’IA », a défendu Catherine Morin-Desailly (Union centriste).

Représenté par ses ministres de la Culture et de l’Intelligence artificielle et du numérique, le gouvernement a pour sa part tenu une position plus nuancée.

« Le Gouvernement partage l’objectif du mécanisme proposé par la commission, mais le contentieux ne peut pas constituer notre unique horizon, car il entraîne des risques : judiciarisation excessive, insécurité juridique prolongée, multiplication des procédures. Mieux vaut un bon accord qu’un mauvais procès », a prudemment avancé Catherine Pégard, ministre de la Culture.

Anne Le Hénanff, ministre déléguée chargée de l’intelligence artificielle et du numérique, a quant à elle plus fermement défendu le point de vue des acteurs de la tech :

« Avec une telle présomption, l’entreprise devra apporter la preuve négative de l’utilisation de données culturelles, via l’analyse de dizaines de téraoctets de données ; c’est tout simplement impossible ! Tous les acteurs économiques qui ont développé des modèles d’IA – entreprises du CAC 40, TPE-PME, start-up – risqueraient un contentieux, ce qui serait dévastateur pour notre économie ».

Elle aussi appelle à privilégier la négociation au contentieux, en s’engageant à soutenir « toutes les initiatives contractuelles entre les acteurs de l’IA et ceux de la culture », ainsi qu’à participer aux évolutions à venir du cadre européen, « car c’est en agissant au bon niveau que nous obtiendrons la sécurité juridique nécessaire ».

Négocier, mais autour de quelle table ?

L’attente est-elle entendable du point de vue des ayants droit, alors que les illustrations d’utilisation à grande échelle de contenus protégés se multiplient ? Dans le sillage du procès ouvert aux États-Unis contre Meta pour entraînement de ses modèles sur les contenus de la bibliothèque clandestine LibGen, plusieurs articles de Mediapart ont montré ces derniers mois le recours à des contenus protégés par l’entreprise française Mistral AI.

Plus récemment, une nouvelle enquête, publiée le 6 avril, démontre que des centaines de milliers d’ouvrages ou d’articles scientifiques accompagnés de la mention « tous droits réservés » figurent dans l’immense jeu de données finepdfs hébergé sur Hugging Face.

Au-delà de sa dimension contentieuse, la proposition de loi serait, dans ce contexte et pour ses promoteurs, un accélérateur visant à sortir du statu quo dont profitent les acteurs de l’IA.

« Il y a urgence, car le pillage continue. J’ai l’impression que quand on montre un peu de fermeté, certains, qui s’y refusaient, viennent à la table des négociations », estime Max Brisson (LR). Avec, déjà, des effets positifs, selon Laure Darcos (groupe Les indépendants), rapporteure du texte :

« Notre mécanisme, juridiquement solide et politiquement efficace, produit d’ores et déjà ses effets : le PDG de Mistral AI a proposé une contribution des entreprises d’IA en fonction de leur chiffre d’affaires pour accéder aux contenus protégés. »

Reste à voir si cette déclaration d’intention suffira à faire pencher la balance lors de l’examen du texte à l’Assemblée nationale.

Reçu — 8 avril 2026 Actualités numériques

☕️ Chrome passe (enfin) aux onglets verticaux et au mode lecture en pleine page

8 avril 2026 à 15:36


Après l’introduction de la vue partagée, Google vient de publier une mise à jour de Chrome (version 147) qui permet au navigateur de se mettre au niveau de la concurrence sur deux aspects : la gestion des onglets verticaux, et le mode lecture.

Les onglets verticaux sont particulièrement utiles sur les écrans larges (type 21:9 et autres formats dits ultrawide) puisqu’ils permettent d’afficher une portion plus importante du titre de la page ouverte, facilitant ainsi la navigation ou la recherche d’un onglet précis.

Promis de longue date par Google, les onglets verticaux n’étaient jusqu’ici accessibles qu’après une activation manuelle au niveau du menu des fonctionnalités expérimentales. Ils sont désormais en cours de déploiement pour tous les utilisateurs. L’option correspondante est censée apparaître au clic droit sur la barre d’onglets.

Chrome se met enfin à la page avec des onglets verticaux officiellement pris en charge – capture d’écran Next

La vue verticale dispose d’un mode réduit qui permet de n’afficher que le favicon des différents sites ouverts pour garder un accès direct aux onglets tout en augmentant la surface d’affichage utile. Elle propose logiquement, elle aussi, de créer des groupes d’onglets et d’organiser ces derniers par nom ou par étiquettes de couleur.

Une bonne nouvelle n’arrivant jamais seule, Google profite de l’occasion pour introduire un mode lecture plein écran. Jusqu’ici, l’option correspondante offrait en effet une vue simplifiée de la page en cours (expurgée des éléments graphiques et contextuels) mais uniquement sous forme d’écran partagé. Une façon, pour le moteur de recherche, de préserver le fondement de son modèle économique, puisque le mode lecture fait disparaître la plupart des publicités.

À gauche, l’ancien mode lecture, à droite le mode plein écran introduit par Chrome 147 – captures d’écran Next

Présenté comme « plus immersif », ce mode lecture dispense des options de réglage de la taille de la police, de l’interligne, ou de la couleur de fond, ainsi qu’un mode de lecture vocale (text to speech). Il est par ailleurs présenté comme compatible avec les lecteurs d’écran.

Ces deux options, annoncées par un billet de blog, sont censées être disponibles chez tous les utilisateurs, mais comme toujours, le déploiement se fait de façon échelonnée. Si l’une ou l’autre de ces options n’est pas activée chez vous, rendez-vous dans le menu des fonctionnalités expérimentales via ces deux liens :

☕️ Chrome passe (enfin) aux onglets verticaux et au mode lecture en pleine page

8 avril 2026 à 15:36


Après l’introduction de la vue partagée, Google vient de publier une mise à jour de Chrome (version 147) qui permet au navigateur de se mettre au niveau de la concurrence sur deux aspects : la gestion des onglets verticaux, et le mode lecture.

Les onglets verticaux sont particulièrement utiles sur les écrans larges (type 21:9 et autres formats dits ultrawide) puisqu’ils permettent d’afficher une portion plus importante du titre de la page ouverte, facilitant ainsi la navigation ou la recherche d’un onglet précis.

Promis de longue date par Google, les onglets verticaux n’étaient jusqu’ici accessibles qu’après une activation manuelle au niveau du menu des fonctionnalités expérimentales. Ils sont désormais en cours de déploiement pour tous les utilisateurs. L’option correspondante est censée apparaître au clic droit sur la barre d’onglets.

Chrome se met enfin à la page avec des onglets verticaux officiellement pris en charge – capture d’écran Next

La vue verticale dispose d’un mode réduit qui permet de n’afficher que le favicon des différents sites ouverts pour garder un accès direct aux onglets tout en augmentant la surface d’affichage utile. Elle propose logiquement, elle aussi, de créer des groupes d’onglets et d’organiser ces derniers par nom ou par étiquettes de couleur.

Une bonne nouvelle n’arrivant jamais seule, Google profite de l’occasion pour introduire un mode lecture plein écran. Jusqu’ici, l’option correspondante offrait en effet une vue simplifiée de la page en cours (expurgée des éléments graphiques et contextuels) mais uniquement sous forme d’écran partagé. Une façon, pour le moteur de recherche, de préserver le fondement de son modèle économique, puisque le mode lecture fait disparaître la plupart des publicités.

À gauche, l’ancien mode lecture, à droite le mode plein écran introduit par Chrome 147 – captures d’écran Next

Présenté comme « plus immersif », ce mode lecture dispense des options de réglage de la taille de la police, de l’interligne, ou de la couleur de fond, ainsi qu’un mode de lecture vocale (text to speech). Il est par ailleurs présenté comme compatible avec les lecteurs d’écran.

Ces deux options, annoncées par un billet de blog, sont censées être disponibles chez tous les utilisateurs, mais comme toujours, le déploiement se fait de façon échelonnée. Si l’une ou l’autre de ces options n’est pas activée chez vous, rendez-vous dans le menu des fonctionnalités expérimentales via ces deux liens :

☕️ Bitcoin : une nouvelle enquête affirme révéler l’identité de Satoshi Nakamoto

8 avril 2026 à 11:01


Serait-ce enfin l’épilogue ? Dix-sept ans après la publication du fameux livre blanc signé Satoshi Nakamoto et l’essor du phénomène bitcoin, deux journalistes du New York Times affirment être en mesure de certifier l’identité réelle de son créateur. D’après leur longue enquête, tous les éléments convergent vers Adam Back, un cryptographe d’origine britannique âgé de 55 ans.

Pour mettre un nom sur l’un des hommes les plus recherchés au monde, John Carreyrou et Dylan Freedman ont notamment passé au crible les archives de la célèbre mailing list Cypherpunks dont les échanges, inscrits dans le courant de pensée éponyme, ont participé à la création des cryptoactifs en général et de bitcoin en particulier.

Au cours de leurs travaux, les deux journalistes estiment avoir mis au jour des similitudes troublantes entre les échanges signés par Adam Back et ceux attribués à Satoshi Nakamoto. Le premier aurait d’ailleurs disparu quand le second a fait son entrée sur le devant de la scène, avant que le mouvement inverse ne s’opère. En 2011, Nakamoto s’est en effet soudainement tu. Six semaines après sa disparition, Adam Back s’est ensuite exprimé pour la première fois publiquement sur le bitcoin.

Adam Back a démenti mercredi être le créateur de bitcoin – capture d’écran

John Carreyrou, célèbre pour avoir déclenché l’affaire Theranos quand il écrivait encore au Wall Stret Journal exhume quelques déclarations ambivalentes, et souligne comment les travaux préliminaires d’Adam Back ouvraient la voie au bitcoin. L’intéressé a en effet conçu et développé, dès 1997, un système de preuve de travail baptisé Hashcash, initialement pensé pour la lutte contre le spam, et repris ultérieurement dans l’univers bitcoin. Carreyrou retrace également le parcours de Back depuis le lancement de bitcoin, et s’interroge notamment sur les raisons de son installation à Malte, à partir de 2009.

Le gros de l’enquête réside toutefois sur des mécaniques d’analyse du discours assistée par ordinateur, qui mettent en lumière des expressions idiomatiques, des tics de langage, des constructions rhétoriques et des idées que l’on retrouve aussi bien dans les propos signés Adam Back que dans ceux attribués à Satoshi Nakamoto.

L’analyse finale est même purement quantitative : les deux auteurs indiquent avoir créé un corpus regroupant des messages émanant de 620 candidats potentiels à la paternité de bitcoin, et passé cet inventaire au crible des écrits de Nakamoto. Dans le lot, le seul à cocher toutes les cases, de la façon d’écrire email à l’emploi de tournures britanniques plutôt qu’américaines, s’est révélé Adam Black.

Dont acte ? L’intéressé a réagi mercredi 8 avril sur les réseaux sociaux.

« Je ne suis pas Satoshi, mais j’ai été parmi les premiers à me concentrer sur les implications sociétales positives de la cryptographie, de la confidentialité en ligne et de la monnaie électronique, d’où mon intérêt actif, à partir de 1992 environ, pour la recherche appliquée sur la monnaie électronique et les technologies de confidentialité sur la liste de diffusion des cypherpunks, ce qui a conduit à Hashcash et à d’autres idées ».

D’après lui, les liens sémantiques établis par Carreyrou relèveraient de la coïncidence, et d’une proximité de pensée entre des passionnés partageant des centres d’intérêt commun. Et le secret qui entoure la création de bitcoin mériterait d’être défendu : « Je ne sais pas non plus qui est Satoshi, et je pense que c’est une bonne chose pour le bitcoin, car cela contribue à ce qu’il soit perçu comme une nouvelle classe d’actifs, une matière première numérique mathématiquement rare ».

En attendant l’éventuelle transaction réalisée depuis le premier portefeuille en bitcoin de la chaîne, qui ferait sans doute office de preuve irréfutable, le mystère de l’identité de Satoshi Nakamoto n’a donc probablement pas fini de susciter enquêtes et controverses.

☕️ Bitcoin : une nouvelle enquête affirme révéler l’identité de Satoshi Nakamoto

8 avril 2026 à 11:01


Serait-ce enfin l’épilogue ? Dix-sept ans après la publication du fameux livre blanc signé Satoshi Nakamoto et l’essor du phénomène bitcoin, deux journalistes du New York Times affirment être en mesure de certifier l’identité réelle de son créateur. D’après leur longue enquête, tous les éléments convergent vers Adam Back, un cryptographe d’origine britannique âgé de 55 ans.

Pour mettre un nom sur l’un des hommes les plus recherchés au monde, John Carreyrou et Dylan Freedman ont notamment passé au crible les archives de la célèbre mailing list Cypherpunks dont les échanges, inscrits dans le courant de pensée éponyme, ont participé à la création des cryptoactifs en général et de bitcoin en particulier.

Au cours de leurs travaux, les deux journalistes estiment avoir mis au jour des similitudes troublantes entre les échanges signés par Adam Back et ceux attribués à Satoshi Nakamoto. Le premier aurait d’ailleurs disparu quand le second a fait son entrée sur le devant de la scène, avant que le mouvement inverse ne s’opère. En 2011, Nakamoto s’est en effet soudainement tu. Six semaines après sa disparition, Adam Back s’est ensuite exprimé pour la première fois publiquement sur le bitcoin.

Adam Back a démenti mercredi être le créateur de bitcoin – capture d’écran

John Carreyrou, célèbre pour avoir déclenché l’affaire Theranos quand il écrivait encore au Wall Stret Journal exhume quelques déclarations ambivalentes, et souligne comment les travaux préliminaires d’Adam Back ouvraient la voie au bitcoin. L’intéressé a en effet conçu et développé, dès 1997, un système de preuve de travail baptisé Hashcash, initialement pensé pour la lutte contre le spam, et repris ultérieurement dans l’univers bitcoin. Carreyrou retrace également le parcours de Back depuis le lancement de bitcoin, et s’interroge notamment sur les raisons de son installation à Malte, à partir de 2009.

Le gros de l’enquête réside toutefois sur des mécaniques d’analyse du discours assistée par ordinateur, qui mettent en lumière des expressions idiomatiques, des tics de langage, des constructions rhétoriques et des idées que l’on retrouve aussi bien dans les propos signés Adam Back que dans ceux attribués à Satoshi Nakamoto.

L’analyse finale est même purement quantitative : les deux auteurs indiquent avoir créé un corpus regroupant des messages émanant de 620 candidats potentiels à la paternité de bitcoin, et passé cet inventaire au crible des écrits de Nakamoto. Dans le lot, le seul à cocher toutes les cases, de la façon d’écrire email à l’emploi de tournures britanniques plutôt qu’américaines, s’est révélé Adam Black.

Dont acte ? L’intéressé a réagi mercredi 8 avril sur les réseaux sociaux.

« Je ne suis pas Satoshi, mais j’ai été parmi les premiers à me concentrer sur les implications sociétales positives de la cryptographie, de la confidentialité en ligne et de la monnaie électronique, d’où mon intérêt actif, à partir de 1992 environ, pour la recherche appliquée sur la monnaie électronique et les technologies de confidentialité sur la liste de diffusion des cypherpunks, ce qui a conduit à Hashcash et à d’autres idées ».

D’après lui, les liens sémantiques établis par Carreyrou relèveraient de la coïncidence, et d’une proximité de pensée entre des passionnés partageant des centres d’intérêt commun. Et le secret qui entoure la création de bitcoin mériterait d’être défendu : « Je ne sais pas non plus qui est Satoshi, et je pense que c’est une bonne chose pour le bitcoin, car cela contribue à ce qu’il soit perçu comme une nouvelle classe d’actifs, une matière première numérique mathématiquement rare ».

En attendant l’éventuelle transaction réalisée depuis le premier portefeuille en bitcoin de la chaîne, qui ferait sans doute office de preuve irréfutable, le mystère de l’identité de Satoshi Nakamoto n’a donc probablement pas fini de susciter enquêtes et controverses.

USA : les chantiers de datacenters butent sur un double mur énergétique

8 avril 2026 à 07:18
Un seul être vous manque, et tout est dépeuplé
USA : les chantiers de datacenters butent sur un double mur énergétique

Entre 30 et 50 % des projets de datacenters attendus pour 2026 aux États-Unis devraient enregistrer des retards. Outre la difficulté à sécuriser les accès à l’énergie nécessaires à leur alimentation, ce ralentissement de la construction serait principalement dû aux délais nécessaires pour l’approvisionnement en équipements dédiés à la production ou à la transformation d’énergie.

N’en déplaise à Donald Trump, la souveraineté industrielle ne se décrète pas, et les faramineux plans d’investissement programmés dans les datacenters aux États-Unis risquent de bientôt incarner très directement cette problématique. Dans une enquête datée du 1er avril, Bloomberg décrit en effet comment plusieurs grands chantiers de construction se heurtent à une problématique d’approvisionnement en composants électriques.

Le principal goulot d’étranglement ne se situerait donc pas au niveau des puces dédiées à l’IA, de la mémoire vive, ou des équipements réseau, mais à l’étage d’en dessous : celui des équipements nécessaires à l’électrification d’un centre de données. D’un point de vue financier, ces derniers représentent généralement moins de 10 % du coût global d’un datacenter, remarque Bloomberg. Ils n’en sont pas moins indispensables au bon fonctionnement de l’ensemble. Or, la demande semble nettement dépasser l’offre.

Les projets en matière de création de datacenters mobilisent en effet des enveloppes record : d’après une analyse de Bridgewater Associates réalisée fin février, les dépenses d’investissement en infrastructures programmées par Google, Amazon, Meta et Microsoft totaliseraient en effet la bagatelle de 650 milliards de dollars. Et si ces projets ont en partie vocation à servir les besoins d’acteurs spécialisés comme OpenAI ou Anthropic, ils ne couvrent pas la totalité du marché, puisque d’autres acteurs spécialisés (Oracle, Equinix, Coreweave, etc.) prévoient eux aussi la construction de nouveaux centres de données.

Des plans d’investissement en forme de vaporware ?

Les chiffres sont tellement monumentaux qu’ils soulèvent en premier lieu la question de la fourniture d’énergie associée, particulièrement dans certaines régions des États-Unis où le réseau électrique n’est pas dimensionné pour accueillir de telles infrastructures.

En réponse, les géants du numérique travaillent d’ailleurs à sécuriser leurs besoins à venir via des achats en direct, à l’image de Meta qui déclarait en début d’année avoir réservé 6,6 GW d’énergie fournie par des réacteurs nucléaires dont la construction ne s’achèvera qu’à horizon 2035.

De plus en plus, ils deviennent aussi leurs propres fournisseurs d’énergie. Sur ce volet, l’exemple le plus emblématique est sans doute celui de xAI, l’entreprise d’Elon Musk, dont la récente levée de fonds de 20 milliards de dollars a notamment vocation à financer l’achat de nouvelles turbines à gaz. Ces cinq nouvelles machines, représentant une puissance cumulée de 2 GW, viendraient compléter un parc installé déjà conséquent, dont la construction et les niveaux d’émission dépassent largement la réglementation locale en vigueur.

Cette problématique du raccordement à un réseau alimenté en conséquence entraine déjà un lot important de retards, d’après la partie accessible au public (enregistrement par email requis) d’un rapport signé d’un cabinet spécialisé, Sightline Climate, dont Bloomberg tire les éléments chiffrés de son enquête.


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 7 avril 2026 Actualités numériques

Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

7 avril 2026 à 08:13
Phallometrics
Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

Anthropic, éditeur des modèles Claude, a annoncé dimanche un accord d’approvisionnement auprès de Google et de Broadcom destiné à renforcer ses infrastructures de calcul, principalement aux États-Unis. L’entreprise a dans le même temps affirmé avoir atteint 30 milliards de dollars de chiffre d’affaires projeté sur un an, contre 9 milliards de dollars en décembre dernier. Elle serait donc passée devant OpenAI.

Anthropic a profité du week-end de Pâques pour lâcher sa petite bombe à destination des marchés financiers et des investisseurs : au détour d’une communication relative à un nouvel accord pluriannuel avec Google et Broadcom, l’éditeur des modèles Claude a déclaré avoir atteint un volume d’activité suffisant pour pouvoir se projeter sur un chiffre d’affaires annualisé supérieur à 30 milliards de dollars.

Le montant annoncé témoigne d’une croissance aux allures d’exponentielle : Anthropic évoquait en effet une projection de chiffre d’affaires annuel de l’ordre de 9 milliards de dollars en décembre 2025. L’activité aurait donc été multipliée par plus de trois en seulement un trimestre.

« Lors de l’annonce de notre levée de fonds en série G en février, nous avions indiqué que plus de 500 entreprises clientes dépensaient chacune plus d’un million de dollars par an. Aujourd’hui, ce nombre dépasse les 1 000, soit le double en moins de deux mois », ajoute Anthropic. Annoncée le 12 février dernier, cette série G (septième tour de financement depuis l’amorçage) avait permis à l’entreprise de lever 30 milliards de dollars sur la base d’une valorisation de 380 milliards de dollars.

Un chiffre d’affaires annualisé supérieur à celui d’OpenAI ?

Si l’annonce d’Anthropic marque les esprits, c’est aussi et surtout parce que le chiffre d’affaires annuel projeté dépasse, pour la première fois, les indicateurs du grand concurrent OpenAI.

La firme dirigée par Sam Altman se montre généralement plutôt avare en matière de données financières, mais elle vient en effet elle aussi de donner une projection récente. Le 31 mars dernier, elle affirmait ainsi réaliser 2 milliards de chiffre d’affaires par mois, à l’occasion d’un point d’étape sur sa dernière levée de fonds en cours (au montant record de 122 milliards de dollars).

2 * 12, 24 milliards : le rythme actuel de chiffre d’affaires d’OpenAI révèle bien une projection inférieure aux chiffres avancés par son compétiteur.

Arithmétique floue

Dans cette bataille de chiffres superlatifs, il convient toutefois de noter que l’indicateur retenu par Anthropic est particulièrement flou. Dario Amodei et ses équipes parlent d’un run rate supérieur à 30 milliards de dollars par an. Or ce run rate est une extrapolation : on prend le chiffre d’affaires à un instant T, sur la période qui nous arrange, et on le multiplie par la constante nécessaire pour arriver à une projection sur douze mois.

Dit autrement, Anthropic pourrait avoir réalisé une particulièrement bonne journée le 5 avril, et décidé de multiplier ce chiffre d’affaires par 365 pour afficher, sans mentir, une projection annualisée très optimiste.

En face, OpenAI laisse entendre qu’il y a dans ses propres revenus une base de récurrence plus stable. « À la fin de 2024, nous générions 1 milliard de dollars par trimestre. Nous générons désormais 2 milliards de dollars de revenus par mois », écrivait l’entreprise dans son billet du 31 mars.

Du point de vue de l’utilisateur final, cette course à qui a le plus gros chiffre d’affaires n’a sans doute que peu d’intérêt, et l’on sera sans doute nettement plus sensible aux limitations que vient de mettre en place Anthropic autour des abonnements Claude pour encourager le recours aux API facturées au token.

La trajectoire du chiffre d’affaires, réelle ou projetée, intéresse en revanche vivement les investisseurs, soucieux de savoir si et quand OpenAI ou Claude pourront atteindre un volume d’activités suffisant pour compenser leurs faramineuses dépenses d’investissement. Le sujet est d’autant plus critique qu’on prête aux deux fondateurs, Dario Amodei et Sam Altman, l’intention d’introduire leur entreprise en bourse.

Anthropic renforce ses liens avec Google et Broadcom

En attendant, Anthropic revendique des liens consolidés avec les grands acteurs susceptibles de répondre à ses besoins en matière de calcul. L’entreprise indique en effet avoir signé de nouveaux accords avec Google et Broadcom, portant sur l’approvisionnement en TPU (puces dédiées à l’inférence IA) de nouvelle génération à compter de 2027. Elle ne donne aucun chiffre sur les sommes en jeu, la nature exacte de ces puces, ou l’éventuelle puissance électrique qui pourrait leur être nécessaire.

« La grande majorité des nouveaux serveurs seront situés aux États-Unis, ce qui fait de ce partenariat un élargissement majeur de notre engagement pris en novembre 2025 d’investir 50 milliards de dollars dans le renforcement de l’infrastructure informatique américaine », précise tout de même Anthropic. En octobre dernier, la société évoquait l’utilisation d’un million de TPU fournis par Google, principalement via l’offre cloud du géant de la recherche.

« Claude reste le seul modèle d’IA de pointe disponible pour les clients sur les trois plus grandes plateformes cloud du monde : Amazon Web Services (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry) », fait valoir Anthropic. Là encore, l’accent est mis sur un élément susceptible de rassurer les marchés. Dans un contexte d’incertitudes quant à la réalité des investissements promis en matière de datacenters, accentué par les conséquences de la guerre en Iran, la société fait valoir qu’elle est en mesure de s’appuyer sur les trois principaux hyperscalers du marché, quand OpenAI doit ménager les susceptibilités entre son actionnaire historique, Microsoft, et le principal participant à son dernier tour de table, Amazon.

Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

7 avril 2026 à 08:13
Phallometrics
Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

Anthropic, éditeur des modèles Claude, a annoncé dimanche un accord d’approvisionnement auprès de Google et de Broadcom destiné à renforcer ses infrastructures de calcul, principalement aux États-Unis. L’entreprise a dans le même temps affirmé avoir atteint 30 milliards de dollars de chiffre d’affaires projeté sur un an, contre 9 milliards de dollars en décembre dernier. Elle serait donc passée devant OpenAI.

Anthropic a profité du week-end de Pâques pour lâcher sa petite bombe à destination des marchés financiers et des investisseurs : au détour d’une communication relative à un nouvel accord pluriannuel avec Google et Broadcom, l’éditeur des modèles Claude a déclaré avoir atteint un volume d’activité suffisant pour pouvoir se projeter sur un chiffre d’affaires annualisé supérieur à 30 milliards de dollars.

Le montant annoncé témoigne d’une croissance aux allures d’exponentielle : Anthropic évoquait en effet une projection de chiffre d’affaires annuel de l’ordre de 9 milliards de dollars en décembre 2025. L’activité aurait donc été multipliée par plus de trois en seulement un trimestre.

« Lors de l’annonce de notre levée de fonds en série G en février, nous avions indiqué que plus de 500 entreprises clientes dépensaient chacune plus d’un million de dollars par an. Aujourd’hui, ce nombre dépasse les 1 000, soit le double en moins de deux mois », ajoute Anthropic. Annoncée le 12 février dernier, cette série G (septième tour de financement depuis l’amorçage) avait permis à l’entreprise de lever 30 milliards de dollars sur la base d’une valorisation de 380 milliards de dollars.

Un chiffre d’affaires annualisé supérieur à celui d’OpenAI ?

Si l’annonce d’Anthropic marque les esprits, c’est aussi et surtout parce que le chiffre d’affaires annuel projeté dépasse, pour la première fois, les indicateurs du grand concurrent OpenAI.

La firme dirigée par Sam Altman se montre généralement plutôt avare en matière de données financières, mais elle vient en effet elle aussi de donner une projection récente. Le 31 mars dernier, elle affirmait ainsi réaliser 2 milliards de chiffre d’affaires par mois, à l’occasion d’un point d’étape sur sa dernière levée de fonds en cours (au montant record de 122 milliards de dollars).

2 * 12, 24 milliards : le rythme actuel de chiffre d’affaires d’OpenAI révèle bien une projection inférieure aux chiffres avancés par son compétiteur.

Arithmétique floue

Dans cette bataille de chiffres superlatifs, il convient toutefois de noter que l’indicateur retenu par Anthropic est particulièrement flou. Dario Amodei et ses équipes parlent d’un run rate supérieur à 30 milliards de dollars par an. Or ce run rate est une extrapolation : on prend le chiffre d’affaires à un instant T, sur la période qui nous arrange, et on le multiplie par la constante nécessaire pour arriver à une projection sur douze mois.

Dit autrement, Anthropic pourrait avoir réalisé une particulièrement bonne journée le 5 avril, et décidé de multiplier ce chiffre d’affaires par 365 pour afficher, sans mentir, une projection annualisée très optimiste.

En face, OpenAI laisse entendre qu’il y a dans ses propres revenus une base de récurrence plus stable. « À la fin de 2024, nous générions 1 milliard de dollars par trimestre. Nous générons désormais 2 milliards de dollars de revenus par mois », écrivait l’entreprise dans son billet du 31 mars.

Du point de vue de l’utilisateur final, cette course à qui a le plus gros chiffre d’affaires n’a sans doute que peu d’intérêt, et l’on sera sans doute nettement plus sensible aux limitations que vient de mettre en place Anthropic autour des abonnements Claude pour encourager le recours aux API facturées au token.

La trajectoire du chiffre d’affaires, réelle ou projetée, intéresse en revanche vivement les investisseurs, soucieux de savoir si et quand OpenAI ou Claude pourront atteindre un volume d’activités suffisant pour compenser leurs faramineuses dépenses d’investissement. Le sujet est d’autant plus critique qu’on prête aux deux fondateurs, Dario Amodei et Sam Altman, l’intention d’introduire leur entreprise en bourse.

Anthropic renforce ses liens avec Google et Broadcom

En attendant, Anthropic revendique des liens consolidés avec les grands acteurs susceptibles de répondre à ses besoins en matière de calcul. L’entreprise indique en effet avoir signé de nouveaux accords avec Google et Broadcom, portant sur l’approvisionnement en TPU (puces dédiées à l’inférence IA) de nouvelle génération à compter de 2027. Elle ne donne aucun chiffre sur les sommes en jeu, la nature exacte de ces puces, ou l’éventuelle puissance électrique qui pourrait leur être nécessaire.

« La grande majorité des nouveaux serveurs seront situés aux États-Unis, ce qui fait de ce partenariat un élargissement majeur de notre engagement pris en novembre 2025 d’investir 50 milliards de dollars dans le renforcement de l’infrastructure informatique américaine », précise tout de même Anthropic. En octobre dernier, la société évoquait l’utilisation d’un million de TPU fournis par Google, principalement via l’offre cloud du géant de la recherche.

« Claude reste le seul modèle d’IA de pointe disponible pour les clients sur les trois plus grandes plateformes cloud du monde : Amazon Web Services (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry) », fait valoir Anthropic. Là encore, l’accent est mis sur un élément susceptible de rassurer les marchés. Dans un contexte d’incertitudes quant à la réalité des investissements promis en matière de datacenters, accentué par les conséquences de la guerre en Iran, la société fait valoir qu’elle est en mesure de s’appuyer sur les trois principaux hyperscalers du marché, quand OpenAI doit ménager les susceptibilités entre son actionnaire historique, Microsoft, et le principal participant à son dernier tour de table, Amazon.

Reçu — 3 avril 2026 Actualités numériques

Ubisoft assigné en justice pour la fermeture des serveurs de The Crew

3 avril 2026 à 13:03
Video (games) killed the radio star
Ubisoft assigné en justice pour la fermeture des serveurs de The Crew

Dans le sillage de l’initiative européenne Stop Killing Games, l’UFC-Que Choisir a lancé des poursuites en justice à l’encontre d’Ubisoft. L’association de consommateurs reproche à l’éditeur français d’avoir fermé les serveurs qui permettaient au jeu The Crew de fonctionner, privant de ce fait les consommateurs de l’usage d’un jeu qu’ils avaient pourtant acheté sans date de fin de vie programmée.

La boucle est bouclée. C’est la fermeture programmée des serveurs du jeu de course The Crew qui a motivé l’émergence de l’initiative européenne Stop Killing Games, en 2024, et c’est quelques semaines après la reconnaissance formelle de cette initiative citoyenne par la Commission européenne qu’une procédure en justice à l’encontre d’Ubisoft voit le jour.

Ubisoft poursuivi pour la fermeture des serveurs de The Crew

En France, c’est l’UFC-Que Choisir qui initie ces poursuites devant le tribunal judiciaire de Créteil. « L’UFC-Que Choisir estime qu’en privant brutalement les joueurs de tout accès à The Crew, Ubisoft a porté atteinte aux droits essentiels des consommateurs », indique l’association dans un communiqué daté du 31 mars.

L’UFC-Que Choisir ne publie pas les éléments de la procédure, mais explique que cette dernière se concentre sur le principe de « licence d’utilisation », derrière lequel se retranchent les éditeurs de jeux vidéo pour, parfois, révoquer l’accès à un contenu.

« La licéité de toutes les clauses limitant les droits des joueurs doit être interrogée », affirme l’association, qui souhaite voir la justice s’exprimer sur la négation du droit de propriété conféré à l’acheteur d’un jeu, mais aussi sur cette faculté de retirer l’accès au contenu sans garantie de maintien d’un mode de fonctionnement alternatif.

Elle interroge également la subordination de l’utilisation du jeu à des services en ligne susceptibles d’être interrompus, et une pratique commerciale moins spécifiquement liée à The Crew : le refus de rembourser les sommes créditées par des joueurs sur leur compte en ligne.

Une partie de la charge porte également sur ce que l’association qualifie de pratique commerciale trompeuse : « les joueurs n’ont jamais été loyalement informés sur le caractère éventuellement temporaire de l’accès au jeu qu’ils achetaient ».

Toute la subtilité réside ici dans l’appréciation du caractère loyal de cette information. À la date de publication de cet article, le 3 avril 2026, les conditions d’utilisation d’Ubisoft disposent par exemple explicitement que l’éditeur peut modifier les contenus et services associés à ses jeux, notamment « afin de limiter ou d’interrompre les fonctionnalités obsolètes ou non viables du Contenu et/ou des Services lorsque cela est raisonnable ».

« Sauf indication contraire de notre part, nous ne garantissons pas la disponibilité d’un Service ou d’un Contenu pendant une période déterminée », énoncent encore ces conditions d’utilisation.

Les éditeurs à l’unisson

L’enjeu n’est pas anodin pour les éditeurs, puisque le maintien en conditions opérationnelles d’un jeu dépendant de services en ligne suppose des coûts. Le secteur s’était d’ailleurs exprimé de façon coordonnée sur le sujet en juillet dernier, quand la mobilisation autour de Stop Killing Games battait son plein, par l’entremise de sa représentation européenne, Videogames Europe :

« Nous apprécions l’enthousiasme de notre communauté ; cependant, la décision d’interrompre les services en ligne est complexe, jamais prise à la légère, et doit être une option pour les entreprises lorsqu’une expérience en ligne n’est plus commercialement viable. Nous comprenons que cela puisse être décevant pour les joueurs, mais, le cas échéant, le secteur veille à ce qu’ils soient informés des changements envisagés, conformément à la législation locale sur la protection des consommateurs ».

À cette occasion, les éditeurs avaient battu en brèche l’idée de laisser prospérer des serveurs privés gérés par la communauté :

« Les serveurs privés ne constituent pas toujours une alternative viable pour les joueurs, car les protections mises en place pour sécuriser leurs données, supprimer les contenus illégaux et lutter contre les contenus communautaires dangereux seraient inexistantes et les détenteurs de droits seraient tenus responsables. De plus, de nombreux jeux sont conçus dès le départ pour être exclusivement joués en ligne ; de fait, ces propositions limiteraient la liberté de choix des développeurs en rendant la création de ces jeux vidéo excessivement coûteuse. »

En attendant l’examen de ce dossier par le tribunal judiciaire de Créteil, la question de la pérennité des jeux vidéo est désormais posée auprès de la Commission européenne. Saisie suite à une pétition au succès historique avec près de 1,3 million de signatures validées au moment de son enregistrement, elle est censée produire, d’ici au 27 juillet 2026, une réponse écrite listant ses éventuelles décisions en la matière.

Rappelons que l’UFC-Que Choisir a mené pendant près de dix ans un combat juridique contre Valve, l’éditeur de la plateforme Steam, pour tenter d’obtenir la suppression d’un certain nombre de clauses qu’elle considérait comme abusives, telles que l’impossibilité de revendre un jeu dématérialisé. Elle fondait à l’époque sa requête sur la règle juridique de « l’épuisement des droits ». Défaite devant la cour de cassation en octobre 2024, l’association a saisi la Commission européenne d’un recours en manquement en février 2025.

❌