Des données personnelles ont été volées durant une cyberattaque qui s’est déroulée en décembre dernier au sein du service de gestion des comptes des élèves. Des informations comme les prénoms, noms, identifiants ÉduConnect, établissements et classes, ainsi que les adresses email (si elles ont été renseignées) d’élèves sont en fuite. Le ministère de l’Éducation nationale a déposé plainte, et saisi l’ANSSI et la CNIL.
Illustration : Flock
Les auteurs de la cyberattaque ont exploité une faille suite à l’usurpation d’identité d’un personnel habilité. Ils ont de la sorte obtenu un accès frauduleux à ce service annexe à ÉduConnect, le système d’authentification pour les élèves (collège et lycée) et les parents. Il leur permet d’accéder à l’ensemble des services numériques scolaires sans avoir à multiplier les identifiants.
Un point d’entrée unique bien pratique donc, mais aussi très tentant pour les pirates. La faille a été corrigée par les services du ministère, mais pas avant que le ou les malandrins puissent se servir dans les serveurs. L’accès au service a été immédiatement suspendu, tandis qu’un travail de renforcement de la sécurité s’est engagé « par un mécanisme de double authentification ».
L’enquête a déterminé que l’attaquant a pu télécharger des données concernant des élèves « au-delà de ceux de l’établissement initialement visé ». Le nombre exact de victimes reste encore à évaluer.
Le ministère précise que les comptes ÉduConnect activés par les élèves et leurs parents ou responsables « au moment de l’attaque » ne sont pas compromis. Ces comptes peuvent continuer à être utilisés « en toute sécurité ». Les autorités ont procédé à une réinitialisation complète des codes d’accès pour les comptes qui n’avaient pas été activés au moment de la cyberattaque. Certains d’entre eux ont pu être compromis avec l’utilisation du code d’activation. Le ministère reste « pleinement mobilisé » pour garantir la sécurité des systèmes d’information « et accompagner les familles et les établissements concernés. »
Ce n’est malheureusement pas la première fois que des données scolaires sont en fuite. Le mois dernier, une intrusion dans le portail RH Compas a exposé les informations de 243 000 agents et stagiaires.
Dans l'espace, personne ne vous entend passer des coups de fil
Le suspense n’aura pas duré bien longtemps. Amazon a confirmé l’acquisition de Globalstar, un opérateur de satellites dont la constellation va rejoindre celle d’Amazon Leo. Objectif : aller chercher le leader Starlink, à commencer par la téléphonie.
Fondée en 1991, Globalstar est désormais la propriété d’Amazon, comme le bruit courait depuis quelques semaines. L’opérateur de communication, à la tête d’une mini-constellation d’une vingtaine de satellites, a accepté l’offre du géant du commerce en ligne pour la somme de 11,57 milliards de dollars.
Embouteillage dans l’espace
Les capacités de Globalstar vont s’ajouter à celles d’Amazon Leo qui, depuis le mois d’avril, a envoyé 240 satellites en orbite basse. Un début encourageant, mais insuffisant : en janvier, l’entreprise demandait au régulateur américain des communications (FCC) un délai supplémentaire pour respecter son obligation de 1 600 satellites d’ici le mois de juillet.
Le renfort de Globalstar est donc le bienvenu, mais cela ne suffira pas pour arriver à la cheville de la constellation Starlink qui compte plus de 10 000 satellites. D’autant que la FCC a donné à la filiale de SpaceX en janvier dernier l’autorisation d’en envoyer 7 500 de plus.
Néanmoins, Amazon Leo va pouvoir accélérer le développement de son offre commerciale, dont le lancement est programmé début 2028 avec un service « Direct-to-Device » (D2D).
Amazon Leo veut proposer un service de téléphonie par satellite complet : voix, données et messagerie. Et grâce aux satellites D2D « nouvelle génération », l’entreprise promet une efficacité « nettement supérieure » (débit plus élevé, meilleures performances globales) par rapport aux systèmes traditionnels.
Starlink Mobile, fort de ses 650 satellites Direct-to-Cell, permet déjà d’envoyer et de recevoir des messages texte dans des zones non couvertes par un réseau cellulaire. Une offre globale données-voix est dans les tuyaux. Le service est actif dans plusieurs pays, dont les États-Unis, le Canada, l’Australie ou encore l’Ukraine. Des opérateurs européens ont signé avec Starlink, comme Salt en Suisse, mais personne en France. Orange a toutefois lancé Messages Satellite l’an dernier, avec l’opérateur Skylo.
À terme, Amazon Leo a l’ambition de mettre sur orbite « des milliers de satellites » pour prendre en charge « des centaines de millions de terminaux à travers le monde ». En plus des services D2D pour les smartphones, il s’agit aussi de commercialiser un accès à internet par satellite, là encore à l’image de Starlink.
L’été dernier, l’Arcep donnait à Amazon Leo son feu vert pour le déploiement de son service d’accès à internet en France. Une autorisation qui n’a pas été du goût de la CFE-CGC d’Orange, qui a déposé un recours en annulation auprès du Conseil d’État.
Le deuxième volet de l’annonce concerne Apple. Le constructeur de Cupertino a inauguré une fonction d’urgence SOS par satellite avec l’iPhone 14 (2022), qui s’appuie sur le réseau de Globalstar. La même année, le fournisseur précisait à la SEC, le gendarme américain de la Bourse, que 85 % de son infrastructure était réservée à Apple.
L’entreprise de Cupertino s’était engagée à investir jusqu’à 1,5 milliard de dollars dans Globalstar pour financer l’expansion des services de communication par satellite pour ses produits : iPhone et Apple Watch, depuis l’Ultra 3 lancée l’an dernier. La rumeur a même prêté un temps à Apple la volonté d’acquérir purement et simplement Globalstar.
Il est donc plus que probable qu’au vu de ces investissements et de sa part dans le capital de l’entreprise (20 %), Apple a eu son mot à dire dans l’acquisition de Globalstar par Amazon. Amazon Leo va de ce fait prendre le relais de Globalstar, et travailler avec le créateur de l’iPhone sur de futures fonctions exploitant les capacités de la constellation de satellites.
« Cela garantit que nos utilisateurs continueront d’avoir accès aux fonctionnalités satellites essentielles sur lesquelles ils comptent désormais », se réjouit Greg Joswiak, vice-président du marketing du constructeur.
Outre Urgence SOS, il est possible d’envoyer des informations avec ses contacts d’urgence et des messages à ses amis, de partager sa position dans l’app Localiser, d’obtenir une assistance routière (dans certains pays, pas en France). Ces fonctions sont proposées jusqu’à présent gratuitement par Apple.
Microsoft n’est pas épargné par l’explosion des prix des composants mémoire. Le constructeur a dévoilé une volée de hausses assez spectaculaires des prix pour ses appareils Surface, en France comme ailleurs dans le monde.
Les augmentations oscillent entre 16 et 21 % : la Surface Pro 12 pouces (16 Go de RAM, 256 Go de stockage) est maintenant facturée 1 149 euros (+ 170 euros), le Surface Laptop 15 pouces (16 Go de RAM, 256 Go de stockage) coûte 1 769 euros (+ 220 euros)… La progression la plus impressionnante concerne la Surface Pro OLED de 13 pouces équipée de 32 Go de RAM et d’1 To de stockage qui revient à 3 099 euros, soit la bagatelle de 670 euros de plus !
La Surface Pro.
Cette valse des étiquettes de la gamme Surface n’étonnera personne : tous les constructeurs doivent actuellement composer avec la pénurie globale de composants mémoire (RAM et SSD) que les entreprises de l’IA dévorent avec un bel appétit pour équiper leurs centres de données. Ne laissant plus que des miettes aux autres industries… Microsoft est une partie du problème ici, étant elle même un des ces grands acteurs de l’IA.
Dans une déclaration adressée à Windows Central, Microsoft confirme sans surprise que la hausse des prix des Surface est bien due à la « récente augmentation des coûts de la mémoire et des composants ». L’entreprise veut continuer à « offrir le meilleur rapport qualité-prix à [ses] clients et partenaires, sans compromis sur la qualité et l’innovation. » Un rapport qualité-prix qui, à l’instar des prix de la mémoire, vient d’exploser.
Apple est une des très rares exceptions (la seule ?) sur le marché : non seulement le groupe de Cupertino a globalement maintenu ses prix, mais il s’est même offert le luxe de lancer un MacBook Neo d’entrée de gamme à 699 euros ! Une vraie anomalie, dont le succès pourrait bien se transformer en caillou dans la chaussure pour le constructeur.
Obtenir un trophée dans Call of Duty n’est pas encore tout à fait l’équivalent d’un diplôme, mais cela pourrait tout de même aider à décrocher un job. La FAA, l’autorité américaine de l’aviation civile, a lancé une campagne de recrutement auprès des joueurs pour garnir les postes vacants de contrôleurs aériens.
Au fil des heures passées à poncer leurs jeux préférés, les joueurs améliorent leur coordination main-œil, leurs réflexes, et leur capacité à prendre des décisions rapidement dans des environnements complexes. Des capacités qui intéressent plusieurs secteurs d’activité comme le trafic aérien. Aux États-Unis, l’administration fédérale de l’aviation (FAA) a lancé une campagne de pub pour recruter des contrôleurs.
Les joueurs à la rescousse de l’espace aérien
La publicité, un rien patapouf avec ses effets de montage et sa musique techno, vise spécifiquement les joueurs, invités à mettre leur savoir-faire à l’épreuve des radars. « Ce n’est pas un jeu, c’est une carrière », annonce l’autorité de l’aviation civile qui promet aussi des rémunérations généreuses. La demande est là : la FAA a besoin de près de 15 000 contrôleurs aériens pour garnir les aéroports américains. Ils sont actuellement 11 000.
« Pour recruter la prochaine génération de contrôleurs aériens, nous devons nous adapter », a déclaré le secrétaire aux Transports Sean Duffy. Communiquer avec les joueurs, c’est « s’adresser à une population croissante de jeunes adultes qui possèdent déjà de nombreuses compétences techniques nécessaires pour réussir dans ce métier », ajoute-t-il. L’agence va donner la priorité aux joueurs, plutôt que de multiplier les stands dans les salons étudiants, en rappelant que le quart seulement des contrôleurs possèdent un diplôme universitaire.
Pour autant, remporter une partie de League of Legends ou maîtriser parfaitement son perso dans Diablo 4 ne qualifie pas automatiquement pour un poste de contrôleur aérien. Le taux d’échec lors de la formation demeure élevé.
Le Government Accountability Office (GAO), l’équivalent américain de notre Cour des comptes, a publié en décembre dernier un rapport selon lequel 200 000 candidatures ont été reçues ces dernières années — beaucoup d’appelés, très peu d’élus : seuls 2 % des candidats sont parvenus à décrocher leur sésame, selon la GAO. Refus lors des sélections, formation très longue et abandons sont à déplorer, mais aussi la difficulté à enchaîner les différentes étapes de sélection, souligne l’Office.
Le délai moyen pour intégrer de nouvelles recrues a cependant été divisé par deux (de 13 mois à 6 mois et demi), explique au New York Times Heather Fernuik, directrice des ressources humaines de la FAA. Le taux d’échec a également reculé : un quart des candidats ne terminent pas la formation, contre un tiers auparavant.
Ces efforts sont louables, mais elle prévient tout de même : « Nous commencerons réellement à voir des améliorations d’ici deux ans et demi à trois ans ». La FAA n’est pas la seule administration états-unienne à draguer ouvertement les joueurs. La très controversée police de l’immigration, l’ICE, pioche souvent dans l’imagerie du jeu vidéo pour recruter des agents. L’armée s’intéresse aussi depuis longtemps à ce public. Les images de jeu vidéo font par ailleurs partie intégrante de la propagande de la Maison-blanche autour de la guerre en Iran.
Les stéréotypes ont la vie dure
Ces appels du pied envers les joueurs ont ceci de singulier que dans le même temps, ils sont régulièrement la cible de stéréotypes. Le débat autour de la violence des jeux vidéo revient ainsi sur la table à chaque fait divers. En pleine célébration de la réussite éclatante du jeu français Clair Obscur: Expedition 33, Emmanuel Macron avait ainsi fustigé la violence dans les jeux vidéo, et confié à des experts une mission sur le sujet.
Plusieurs études, comme ici de l’Oxford Internet Institute (2019), ou celle-ci réalisée en République tchèque (2024) relativisent ou contestent le lien entre les jeux vidéo et la violence réelle.
Au-delà de la question de la violence, c’est aussi le temps passé devant les jeux vidéo qui est pointé du doigt. Une vaste enquête fédérale révélait que les jeunes hommes états-uniens de 15 à 24 ans consacraient en moyenne près de 10 heures par semaine à jouer à des jeux vidéo, soit plus du double d’il y a 15 ans. D’autres activités, comme le sport, les sorties ou même le travail, en ont fait les frais ce qui ne manque pas d’inquiéter les enseignants et les économistes.
Mais le tableau doit être nuancé : les jeux vidéo sont aussi devenus un espace central de socialisation pour les plus jeunes, rappellent les chercheurs. C’est un lieu de sociabilité, avec ses codes et ses communautés. Lutter pour réduire le temps passé devant les jeux vidéo serait donc contre-productif… et si on réduit le temps de jeu, qui formera les prochains contrôleurs aériens ?
Dans sa grosse pile des problèmes à résoudre, la nouvelle direction de Microsoft Gaming doit s’atteler au Game Pass. Le service de jeux sur abonnement a beaucoup perdu de sa superbe depuis octobre dernier, suite à la hausse significative de prix de ses différentes formules.
L’offre Ultimate a ainsi augmenté de 50 %, à 26,99 euros par mois. Le reste des abonnements est à l’avenant :+ 2 euros pour le Game Pass Essential (anciennement Core), soit 8,99 euros. Le Game Pass PC a pris 3 euros dans la vue, désormais à 14,99 euros. Seule la formule Premium, qui a remplacé Standard, est restée à 12,99 euros. Pour faire passer la potion amère, en particulier pour Ultimate, Microsoft a multiplié les ajouts de contenus, mais manifestement sans convaincre ni les joueurs, ni… la nouvelle patronne de la division Xbox, Asha Sharma.
La remplaçante de Phil Spencer admet que « le Game Pass est devenu trop cher pour les joueurs » dans un mémo à ses équipes intercepté par The Verge. Elle appelle à un « meilleur équilibre en termes de valeur » : tout laisse à penser qu’une baisse des prix pourrait débouler à court terme, histoire de relancer la machine. À un horizon plus lointain, la CEO de Microsoft Gaming veut faire évoluer le Game Pass vers un système « plus flexible ».
Présentation des nouvelles offres Xbox Game Pass
Et pourquoi pas un Game Pass à la carte, où chacun choisirait ses options en fonction de ses envies et de son budget ? Le Game Pass, longtemps considéré comme « le meilleur rapport qualité-prix du jeu vidéo », a surfé sur son argument phare : les jeux des studios Xbox disponibles sur le service, dès leur sortie. De quoi économiser des dizaines d’euros sur les prix des jeux vendus à l’unité.
Le casse-tête Call of Duty
Mais cela fonctionnait bien quand ces mêmes studios sortaient deux ou trois jeux par an. À force d’acquisitions (Zenimax en 2021, Activision Blizzard King en 2023…), le nombre de jeux « first party » se sont multipliés, sans oublier le poids lourd Call of Duty qui représente bon an mal an des dizaines de millions de copies écoulées. La hausse de prix des abonnements Game Pass aurait été motivée en partie par l’inclusion de la locomotive d’Activision dans le service, le même jour que sa sortie.
Pourquoi acheter le jeu au complet plein pot, alors qu’il est proposé pour une fraction du prix en compagnie de centaines de titres supplémentaires ? Cette stratégie aurait représenté 300 millions de dollars de manque à gagner pour Xbox en 2024, selon une source interne. Autant d’argent que l’épisode annuel de Call of Duty devait faire rentrer dans les caisses en étant vendu à la pièce sur consoles et PC.
Une rumeur de Jez Corden, rédacteur en chef de Windows Central, indiquait tout récemment que Call of Duty pourrait tout simplement quitter le Game Pass et revenir à son modèle économique traditionnel. Sans le jeu, qui se hisse régulièrement au sommet des meilleures ventes chaque année, Xbox aurait effectivement plus de latitude pour ajuster à la baisse les tarifs du service.
Opération séduction
Asha Sharma devrait en tout cas en dire plus aux employés de sa division la semaine prochaine. De nouveaux bruits de couloir ne sont pas à exclure. Asha Sharma semble s’intéresser de très près au Game Pass. Le site The Information rapportait fin mars qu’elle évaluait déjà la possibilité de lancer des abonnements moins chers pour rendre le service plus accessible.
Ce nouveau mémo n’a probablement pas fuité pour rien : il participe d’une opération de séduction engagée auprès des joueurs Xbox depuis la prise de pouvoir d’Asha Sharma, au mois de février. La nouvelle directrice a pris trois engagements : la priorité aux bons jeux, faire revenir sur le devant de la scène la console Xbox (alors que Microsoft donnait l’impression assez nette de vouloir se transformer en simple éditeur multiplateformes), et définir « l’avenir du jeu » sans « AI slop ».
Des mots pensés pour réchauffer le petit cœur endolori de la communauté Xbox, qui a mal vécu les transformations de ces dernières années : la hausse des prix du Game Pass et des consoles, mais aussi la fin des jeux exclusifs pour Xbox qui sont maintenant portés sur PS5, ou encore la fameuse campagne de pub « This is an Xbox ». Si « tout est une Xbox » (entendre par là un téléviseur connecté, un casque Quest, une clé Fire TV Stick…), pourquoi donc acheter une Xbox ? Une des premières décisions de la nouvelle direction a d’ailleurs été d’annuler cette campagne.
À compter du 1er septembre, les réseaux sociaux devront demander l’âge de leurs utilisateurs en France, dans l’objectif d’interdire l’accès à ceux de moins de 15 ans. C’est le calendrier fixé par le gouvernement aux principales plateformes. Le ministère du Numérique a précisé aux réseaux sociaux concernés les différentes étapes techniques.
Les dirigeants des branches françaises de Google et YouTube, de Meta, de TikTok, de Twitch, de Snapchat et de Strava ont participé ce 13 avril à une réunion organisée au ministère de l’Économie par Anne le Henanff, ministre déléguée chargée de l’Intelligence artificielle et du numérique, d’après une indiscrétion de L’Informé. La ministre leur a exposé le calendrier de la mise en place des dispositifs de vérification de l’âge, en vertu de la proposition de loi « visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux ». Elle a réaffirmé l’objectif, promis par Emmanuel Macron, d’une entrée en vigueur au 1er septembre 2026.
Les spécifications techniques sont attendues dès ce mois d’avril. Viendra ensuite, en mai, la séquence dite du bac à sable durant laquelle les plateformes devront bûcher sur la préproduction de leur système de vérification de l’âge. La mise en production proprement dite sera lancée le mois suivant, puis l’été sera studieux avec les intégrations techniques.
Autour de la table étaient aussi présents des représentants de l’identité en ligne comme France Identité, qui développe sa propre architecture de preuve d’âge depuis plusieurs mois, avec des écueils. Des autorités — CNIL, Arcom… —, des députés et des sénateurs ont également participé à la réunion.
Parcours d’obstacles pour la proposition de loi
Adopté par l’Assemblée nationale le 27 janvier, puis remanié par le Sénat le 31 mars, le texte est examiné par la Commission européenne depuis le 9 avril. Bruxelles a jusqu’au 10 juillet pour rendre sa copie. La validation ne sera pas forcément triviale : le Conseil d’État a en effet déjà signalé dans un avis que si les États membres ont toute compétence pour « définir des mesures de politique sociale, notamment fixer un âge minimal d’accès », ils ne peuvent pas « imposer d’obligations supplémentaires aux plateformes en ligne ». Dans la mesure où ces dernières ne sont pas installées en France, mais dans un autre pays de l’Union (l’Irlande), c’est en effet au niveau européen que se décide leur réglementation, comme l’a déjà rappelé Bruxelles à Paris au sujet de la loi SREN.
Si la proposition de loi est jugée contraire au droit de l’Union, il faudra en revoir une bonne partie pour passer sous les fourches caudines européennes. Dans le cas contraire, les députés reprendront la main pour une seconde lecture. Une commission mixte paritaire pourrait trancher les différends entre les deux chambres, sans oublier le passage éventuel au Conseil constitutionnel.
Autant dire que le calendrier du gouvernement parait bien optimiste, mais mieux vaut prévenir que guérir : on a bien vu à quel point il était facile de contourner les systèmes de vérification d’âge pour les sites porno.
Le texte du Sénat prévoit la mise en en place d’une liste noire de réseaux sociaux jugés à risque (contenus ou algorithmes potentiellement nocifs), définie par arrêté ministériel après l’avis de l’Arcom. Les mineurs de moins de 15 ans pourront accéder à un réseau social non interdit, mais avec l’accord explicite d’au moins un des parents (un accord qui peut être retiré en tout moment). À noter que les encyclopédies en ligne, les plateformes éducatives ou scientifiques, et les sites de logiciels libres seront exempts de cette obligation.
Mise en œuvre difficile en Australie
Malgré toute les interdictions du monde, les utilisateurs — et tout particulièrement les enfants, qui ne manquent pas de ressource pour parvenir à leurs fins ! — pourraient bien trouver des moyens de truander le système. L’Australie est le premier pays à avoir interdit les réseaux sociaux aux mineurs, en l’occurrence les moins de 16 ans. Le dispositif, mis en place le 10 décembre dernier, n’empêche absolument pas les minots d’accéder aux plateformes…
Une étude de la fondation Molly Rose, qui se base sur un sondage de 1 070 jeunes Australiens (de 12 à 15 ans), a établi qu’au mois de mars, 61 % de ceux qui avaient un accès à des réseaux sociaux avant l’interdiction possédaient toujours un ou plusieurs comptes actifs. 70 % d’entre eux affirment aussi qu’il est facile de contourner l’interdiction. Voilà qui pose de sérieuses questions concernant l’efficacité de ces mesures.
Le gouvernement australien a d’ailleurs lancé des enquêtes, toujours au mois de mars, sur les insuffisances des systèmes de vérification de l’âge chez Snap, TikTok, Meta (Facebook et Instagram), ainsi que YouTube. Les résultats seront connus dans quelques mois ; les entreprises risquent une sanction d’un maximum de 49,5 millions de dollars australiens, soit environ 28 millions d’euros.
Les fuites de données se suivent, elles finissent par se ressembler, mais malheureusement elles continuent de mettre en danger des millions d’utilisateurs. Le géant européen des salles de fitness Basic-Fit, qui possède 2 150 clubs dont 894 en France, a essuyé un « accès non autorisé » à son infrastructure informatique. En l’occurrence, le système qui enregistre les visites des membres dans ses clubs a été visé. Les clients français sont concernés, ainsi que ceux belges, allemands, espagnols, luxembourgeois et hollandais.
Les autorités compétentes en matière de protection des données (la CNIL en France) ont été prévenues par l’entreprise, qui exploite aussi le réseau Clever Fit. Le piratage, détecté par les systèmes de surveillance du groupe, a été interrompu « en quelques minutes après sa découverte ». Les hackers ont pu s’emparer d’une partie des données d’adhésion, des noms et adresses postales, des adresses email, numéros de téléphone, dates de naissance et coordonnées bancaires.
Basic-Fit indique ne pas conserver les documents d’identité. Si le vol de données n’a pas compromis les mots de passe des membres, ces informations en fuite n’en restent pas moins un coffre au trésor précieux pour les escrocs. Ils peuvent en effet s’en servir pour piéger leurs victimes via des tentatives d’hameçonnage, en se faisant passer pour Basic-Fit avec des infos crédibles.
Un million de membres sont touchés (dont 200 000 aux Pays-Bas, siège social du groupe), sur un total de 5,8 millions de clients. Basic-Fit ne précise pas le nombre en France, mais tous ont été informés selon le communiqué de l’entreprise. Pour le moment du moins, aucune exploitation malveillante de ces données ne serait à déplorer.
Denuvo, l’arme anti-piratage utilisée par de nombreux éditeurs de jeux, a du plomb dans l’aile. Attaqué sur plusieurs fronts, le DRM ne suffit plus à protéger les titres, parfois déplombés quelques heures après leur sortie. La menace est existentielle.
Grosse angoisse dans le petit monde des DRM pour les jeux vidéo. Les éditeurs protègent leurs blockbusters en les truffant de logiciels anti-piratage, dont le plus connu est probablement Denuvo. La technologie développée par Irdeto ajoute une couche de protection en chiffrant et en fragmentant le code du jeu ; elle vérifie aussi en continu l’intégrité du code pour empêcher toute modification (ou copie) non autorisée.
Denuvo en pleine panade
Le revers de la médaille, c’est que ce mécanisme de protection qui tourne en permanence aurait un impact sur les performances en jeu. En sollicitant le processeur pour des opérations qui n’ont rien à voir avec le jeu lui même, Denuvo pourrait entraîner une baisse du nombre d’images par seconde, des temps de chargement un peu plus longs, voire des saccades dans certaines situations.
Voilà un défi pour les as du contournement de ces protections ! Et ils sont manifestement en passe de réussir leur coup. Le pirate (ou le groupe de pirates) voices38 a posté en fin de semaine dernière un crack complet de Resident Evil: Requiem, le nouvel opus de la saga de Capcom sorti le 27 février. Le DRM Denuvo est totalement désactivé, rapporte Tom’s Hardware.
Mieux encore : les performances du jeu grimpent en flèche par rapport à une version craquée avec l’autre méthode de contournement basée sur l’hyperviseur (HV). Le youtubeur ChillyWillMD a réalisé une comparaison du jeu avec les deux méthodes.
Résultat : avec le crack de voices38, Requiem affiche environ 5 % d’images par seconde en plus, tout en réduisant sensiblement sa consommation de ressources : jusqu’à 2 Go de mémoire vidéo et près de 1 Go de RAM en moins. Un gain significatif, en particulier sur les petites configurations. Ce n’est qu’un test unitaire, il est donc difficile de tirer des conclusions générales, mais il confirme les critiques sur l’impact de Denuvo.
Ce crack pour le jeu de Capcom n’est pas de bon augure ni pour Irdeto, ni pour les éditeurs. Car au-delà de Requiem, tout laisse à penser que cette nouvelle méthode va rapidement gagner en popularité et permettre de craquer de nombreux autres titres.
L’autre manière de déplomber le DRM est de passer par un hyperviseur. Ce même volet de Resident Evil était ainsi disponible en version craquée quelques heures seulement après son lancement (et ça a été le cas d’autres jeux très en vue, comme Crimson Desert ou Life is Strange: Reunion). Auparavant, contourner Denuvo ou un autre verrou nécessitait un travail long et fastidieux d’ingénierie inverse qui pouvait durer plusieurs semaines, voire plusieurs mois. Les « hacks HV » (pour hyperviseur) sont infiniment plus rapides.
Les hacks utilisant l’hyperviseur passent « sous » Windows, à un niveau très bas (Ring-1) : ils interceptent les instructions envoyées au processeur, trompent Denuvo en lui envoyant de fausses informations, sans toucher aux fichiers du jeu. Le hic avec cette méthode, c’est que pour installer cet hyperviseur, il faut désactiver des dispositifs de sécurité bas niveau de Windows comme le VBS (Virtualization‑Based Security) et le HVCI (Hypervisor‑Enforced Code Integrity).
De quoi ouvrir la porte de son PC à des failles potentiellement critiques : des malwares difficiles à détecter peuvent de la sorte obtenir un accès complet à l’ordinateur. Autre écueil, le code de Denuvo est toujours présent, donc il ne faut pas espérer de gain de performances.
Qui l’emportera du chat ou de la souris ?
C’est un jeu du chat et de la souris : lorsque les pirates améliorent leurs méthodes de déplombage, Irdeto planche sur des contre-mesures. « Nous travaillons déjà sur des versions de sécurité mises à jour pour les jeux affectés par les contournements par hyperviseur », explique l’éditeur à TorrentFreak. « Pour les joueurs, les performances ne seront pas affectées par ces mesures de sécurité renforcées », affirme encore l’entreprise.
Le créateur de Denuvo n’entre pas dans les détails, en revanche il précise qu’il ne sera pas nécessaire que le verrou « descende en Ring-1 ni à un niveau plus profond du noyau […] ce n’est pas la direction que nous envisageons ». Irdeto n’est pas au bout de ses peines : le contournement HV devrait bientôt être plug’n play, c’est à dire qu’il ne sera plus nécessaire de bidouiller dans les entrailles de son PC… Pour les amateurs sans trop de connaissance technique, ça serait la solution la plus simple.
Denuvo fait donc face à deux fronts : le nouveau crack et la méthode HV. Deux approches complémentaires, l’une qui fait complètement sauter la protection, l’autre capable de fonctionner dès la sortie des jeux, et qui imposent donc une réponse rapide, puisque c’est sur leur période de lancement que les gros titres rapportent le plus. Reste à voir si et comment Denuvo saura combler les manques.
La Commission européenne s’est dotée d’un nouveau « gendarme » économique. Anthony Whelan, ancien aide de la présidente Ursula von der Leyen, a été nommé à la tête de la Direction générale de la concurrence (DG COMP), le service chargé de faire respecter les règles de concurrence dans l’UE. Cette direction pilote les grandes affaires d’ordre économique, notamment la régulation des géants du numérique.
Le nouveau directeur général aura donc du pain sur la planche. Armé des nouveaux règlements sur les services numériques (DSA) et des marchés numériques (DMA), Bruxelles a lancé une myriade d’enquêtes sur les pratiques d’Alphabet, Meta, Apple, Amazon, X (anciennement Twitter)… Pour Anthony Whelan, l’application du droit à la concurrence européen doit être « impartiale, fondée sur les faits et contrainte par le cadre juridique des règles que l’on applique », explique-t-il au Financial Times.
C’est une place aussi convoitée que politiquement explosive. Le retour tonitruant de Donald Trump à la Maison Blanche a fait des étincelles : lui-même et son administration flinguent régulièrement la politique de l’UE en matière de régulation des mastodontes de la tech américains, avec des sanctions à la clé.
Anthony Whelan l’assure : son travail ne subira pas l’influence du « bruit » environnant. « Plus la pression extérieure est forte, plus il est essentiel de veiller à ce que les dossiers soient rigoureusement fondés et juridiquement solides », poursuit-il. Un message envoyé aussi bien à Washington qu’en interne : la Commission a parfois perdu sur le tapis vert de la justice européenne faute d’un dossier suffisamment bien ficelé, comme en 2023, où elle n’a pas réussi à démontrer l’illégalité des coups de pouce fiscaux accordés par le Luxembourg à Amazon.
Le fonctionnaire européen, originaire d’Irlande, a œuvré en tant que conseiller clé d’Ursula von der Leyen pendant des années. Il était déjà directeur général adjoint de la DG COMP. Il prend la suite de Linsey McCallum, qui faisait l’intérim depuis le départ d’Olivier Guersent l’été dernier. Anthony Whelan travaillera sous l’égide de Teresa Ribera, la commissaire à la concurrence, qui accueille son nouveau DG les bras ouverts : « Son professionnalisme sera essentiel pour préserver ce qui compte le plus dans l’application du droit de la concurrence : l’objectivité, l’indépendance et l’égalité de traitement pour toutes les entreprises opérant en Europe », écrit-elle sur Bluesky.
OpenNOW se présente comme l’alternative open source au client GeForce NOW, le service de cloud gaming de NVIDIA. En proposant davantage de transparence et de personnalisation que le client officiel, ce nouveau logiciel a de quoi séduire les joueurs.
À moins d’un héritage providentiel ou d’un ticket gagnant de loterie, acheter ou monter un PC gaming aujourd’hui relève d’une épreuve olympique pour le compte en banque. Et, vu la situation sur le front des composants, ça ne va pas s’arranger de sitôt. Il existe une alternative pour les joueurs sans le sou qui veulent tout de même assouvir leur passion : le streaming de jeux vidéo.
Une autre porte d’entrée dans GeForce NOW
C’est entendu, pour en profiter il faut disposer d’une solide connexion à internet, pas tellement pour le débit même si c’est important, mais surtout au niveau de la latence. Mais si on a la chance d’avoir un tel accès, le cloud gaming peut être une solution viable à la crise actuelle de la mémoire. GeForce NOW est une des meilleures plateformes dans ce domaine : NVIDIA permet en effet de jouer en streaming avec les performances d’une RTX 4080, voire d’une 5080 dans certains cas.
Bien sûr, ce n’est pas gratuit : il faut s’acquitter d’un abonnement payant (jusqu’à 21,99 euros par mois), et acheter les jeux sur une plateforme compatible comme Steam ou l’Epic Games Store. Rapporté aux prix des PC actuels, et même des consoles, l’investissement peut être intéressant. Seul hic : tous les jeux ne sont pas compatibles, mais NVIDIA promet le support de plus de 4 000 jeux, y compris des blockbusters récents.
Le service GeForce NOW est disponible sur de nombreuses plateformes (Linux depuis peu), que ce soit en ligne avec un navigateur, ou sous la forme d’applications dédiées. Mais il s’agit d’un logiciel propriétaire… OpenNOW se propose d’en être la version open source (licence MIT). Née en fin d’année dernière, l’application commence à intéresser de plus en plus de joueurs et gagne en popularité sur GitHub.
L’interface d’OpenNOW.
Ce logiciel pour Windows, macOS et Linux (x64 et ARM64) permet d’accéder à sa bibliothèque de jeux en se connectant à son compte GeForce NOW. Le client reprend la plupart des fonctions de son modèle tout en apportant davantage de granularité : contrôle de la qualité du streaming (FPS, résolution, choix de la région, codec…) ; affichage en surimpression des infos de latence, de pertes de paquets, des stats de rendu. On y trouve aussi un outil de capture d’écran, de contrôle du micro et de l’enregistrement, ainsi qu’une navigation adaptée aux manettes.
OpenNOW joue la transparence
Un des atouts d’OpenNOW est l’absence de limitation liée à l’activité. GeForce NOW a la mauvaise habitude de déconnecter le joueur d’une partie en cas d’absence de plus de quelques minutes. Ça n’est pas le cas avec OpenNOW. Le logiciel ne collecte aucune forme de télémétrie : les captures d’écran et les paramètres de jeu sont stockés sur l’ordinateur. Quant au processus de connexion au compte GeForce NOW, il s’opère via les serveurs de NVIDIA uniquement.
Les développeurs d’OpenNOW veulent donner aux utilisateurs « une alternative transparente et personnalisable au client officiel, sans masquer les aspects techniques aux contributeurs ». Techniquement, il s’agit d’un projet qui repose sur les technologies Electron 40, React 19 et TypeScript 5.7. L’accès en open source permet aux développeurs de l’améliorer ou d’en créer des forks.
La feuille de route des futures fonctions comprend, entre autres, la prise en charge du chat audio, d’un système de plugins, de thèmes, et aussi d’un travail d’optimisation pour éviter l’usage excessif du CPU. Le début de reconnaissance d’OpenNOW va mettre le projet sous les projecteurs.
Pour le moment, NVIDIA n’a pas réagi à OpenNOW, mais (pour le moment du moins !) le client officiel demeure l’option la plus simple et la plus directe pour utiliser le service de cloud gaming, en particulier sur Android. Contacté par Next, NVIDIA n’a pas souhaité répondre pour le moment.
Microsoft revoit en profondeur le programme Windows Insider. Simplification (relative) des canaux, des fonctions annoncées disponibles immédiatement en bêta, des transitions facilitées entre différentes versions : le tout pour accélérer le grand chantier de rénovation de Windows 11.
Après avoir présenté le mois dernier les grandes lignes du vaste projet d’amélioration de Windows 11, Microsoft a annoncé le 10 avril de gros changements pour le programme Windows Insider. C’est la pierre angulaire de ce chantier qui aboutira (à en croire la promesse de l’éditeur) à un système d’exploitation plus stable, plus fiable, et qui n’est pas noyé sous une épaisse couche d’IA sans intérêt.
Lancé en 2023, le programme Windows Insider distribue quatre versions de Windows 11 via autant de canaux : Canary (la moins stable), Dev, Beta, et Release Preview (la plus stable). Microsoft réduit le nombre de canaux à deux seulement, à commencer par Experimental qui remplace Canary et Dev. Un nom « délibéré », explique Alec Oot de l’équipe Windows Insider. L’utilisateur pourra tester des fonctions encore en développement, avec tout ce que cela implique de faux pas et de bugs. Elles pourront aussi évoluer, être reportées, ou ne jamais être livrées.
Les fonctions annoncées pourront être testées tout de suite
Le canal Beta reste en place, mais avec un changement important : les fonctions annoncées sur le blog Windows Insider seront bel et bien disponibles tout de suite dans les versions distribuées par son intermédiaire. À l’heure actuelle, ces nouveautés sont déployées progressivement (Controlled Feature Rollout), ce qui ne manque pas de susciter une certaine frustration de la part des testeurs. Après tout, ils ont signé pour ça, et connaissent les risques.
« Désormais, lorsqu’une fonctionnalité est annoncée dans une mise à jour bêta et que vous installez cette mise à jour, elle sera disponible », affirme Alec Oot. Il prévient toutefois que de légères différences pourront apparaitre de temps à autre lorsque l’éditeur teste des variantes.
Les testeurs du canal Experimental gagnent de leur côté une nouvelle fonction pour activer et désactiver des fonctions spécifiques, grâce à une nouvelle page de flags à l’intérieur des préférences Windows Insider. Plus besoin d’utiliser l’outil en ligne de commande ViVeTool, qui remplit la même fonction. Ce dernier pourrait cependant rester utile pour découvrir et tester des nouveautés pas encore annoncées par Microsoft.
Le dirigeant résume ainsi la nouvelle proposition Windows Insider : le canal Experimental distribuera les nouvelles fonctionnalités en premier, et c’est aussi la version où « vos retours ont le plus d’impact direct sur ce que nous développons. » Le canal Beta se destine aux utilisateurs qui recherchent une expérience plus stable, avec des fonctions proches du déploiement grand public.
Rien n’est jamais simple chez Microsoft
Dit comme ça, cela parait simple mais il y a quelques petites nuances importantes. Il existe ainsi une option pour choisir la build de Windows compatible avec son PC : 25H2 (pour la plupart des utilisateurs) ou 26H1 (pour les machines équipés d’une puce Snapdragon X2). Surtout, le canal Experimental proposera une option supplémentaire baptisée « Future Platfoms », qui n’est pas alignée avec une version commerciale de Windows 11. Elle permettra aux utilisateurs qui n’ont pas froid aux yeux de jouer avec les fonctions les plus avancées.
L’entreprise conserve aussi le canal Release Preview, pour les utilisateurs qui veulent un temps d’avance sur les mises à jour grand public de Windows 11. Ce canal est une option « cachée » dans les réglages du programme, car il se destine en priorité aux services informatiques voulant réaliser des tests de compatibilité.
Enfin, et c’est une autre évolution significative du programme Insider, passer d’une version de test à une autre ne nécessitera plus de réinstaller Windows au propre. Un processus qui peut constituer un frein, aussi bien pour ceux qui voudraient participer qu’à ceux qui veulent en sortir. Dans la plupart des cas, les Insiders pourront naviguer entre les différents canaux Experimental, Beta et Release Preview à partir de la même base de Windows. Ils conserveront leurs apps, paramètres et données.
Seule exception : la version Future Platforms du canal Experimental, qui demandera toujours une installation propre. Ce nouveau programme Windows Insider sera lancé dans les prochaines semaines. Les testeurs seront orientés vers les nouveaux canaux en fonction de leur choix actuels : l’ancien canal Beta vers le nouveau, canal Canary et Dev vers Experimental.
L’IA générative se fait une place toujours plus grande dans l’industrie du jeu vidéo, qui adopte cette technologie pour générer du code… et parfois, des assets graphiques, ce qui ne manque jamais de provoquer une levée de boucliers chez de nombreux joueurs.
Malgré sa position de force dans le secteur, aussi bien en tant que développeur et éditeur de jeux que tenancier de boutique, Valve se fait assez discret sur ce plan. En 2024, Steam dévoilait une nouvelle politique exigeant des studios la transparence sur leur utilisation de l’IA générative ; les fiches des jeux reflètent publiquement cet usage. Environ 20 % des jeux apparus sur Steam l’an dernier ont déclaré utiliser l’IA générative, selon une étude de Totally Human Media.
Illustration : Flock
Si Valve donnait jusqu’à présent l’impression de se tenir prudemment sur le bas côté, l’entreprise travaille aussi sur des projets liés à l’IA générative. Des références à « SteamGPT » ont été détectées dans des mises à jour récentes du client Steam, rapporte Tom’s Hardware. Le code suggère que SteamGPT aura un accès aux stats des comptes, par exemple le « trust score », un composant du « Trust Factor » à l’œuvre dans Counter-Strike. Cet outil sert à évaluer les joueurs, notamment pour la création de parties multi.
Évidemment, l’entreprise n’a rien révélé de ses intentions, mais un faisceau d’indices laisse penser que SteamGPT ne sera pas un bot d’aide en jeu, comme peut l’être le Copilot Gaming de Xbox. Les références à des tâches d’étiquetage, à des notions de « problèmes » et à des sous-catégories de problèmes semblent en effet dessiner un mécanisme classique des systèmes d’IA : prendre des données brutes pour leur donner un sens.
Classer les incidents, produire un résumé structuré des éléments à charge et à décharge, le tout au service de l’infrastructure de modération de Steam : il pourrait donc s’agir d’un outil d’aide à la décision des équipes chargées de surveiller les comportements des joueurs, afin de trier plus rapidement d’importants volumes de logs d’incidents.
Il est impossible de savoir où en est le développement de SteamGPT, ni même si Valve compte un jour le lancer… Mais sa présence dans le code du client Steam indique que le groupe y travaille. Ce serait en tout cas un de ses premiers outils d’IA générative publics.
Un problème, quel problème ? Plus de problème ! Selon Microsoft, tous les bugs de Windows 11 ont été corrigés. Si si ! C’est marqué dans la liste des « problèmes connus » de la version 25H2, la dernière en date pour le grand public. Mieux encore, la version 26H1 du système d’exploitation (destinée aux appareils équipés d’une puce Snapdragon X2), ne recense tout simplement aucun bug connu, se réjouit Neowin.
Illustration : Flock
Évidemment, ça ne veut pas dire que les ingénieurs de Windows vont pouvoir lancer une petite partie de Solitaire tranquillou. La probabilité qu’un nouveau bug apparaisse dans les prochains jours est en effet quasiment certaine, car après tout c’est dans la nature des logiciels, quels qu’ils soient. Windows 11 n’a pas été épargné, on ne compte plus le nombre de problèmes essuyés par l’OS depuis son lancement.
On se rappellera par exemple de la panade noire dans laquelle les mises à jour d’octobre dernier ont plongé de nombreux utilisateurs : localhost cassé, souris et claviers USB non reconnus dans WinRE, la prévisualisation dans l’Explorateur aux abonnés absents…
Bref, cette absence de bug connu n’est qu’un sursis pour Microsoft, qui trouvera bien le moyen de casser quelque chose (il existe aussi des bugs dont l’éditeur n’a pas connaissance, bien sûr). Ce d’autant que les grandes manœuvres ont débuté : l’éditeur a ainsi annoncé un grand chantier pour stabiliser l’OS et réduire les plantages, améliorer les performances, n’intégrer l’IA que là où ça a du sens, et développer des fonctions réclamées à cor et à cri par les utilisateurs. Comme par exemple la barre des tâches à placer sur les côtés ou en haut de l’écran.
Microsoft a aussi annoncé un changement important : la possibilité de suspendre la livraison des mises à jour de Windows Update plus longtemps. Le groupe parle d’un seul redémarrage mensuel. Les premiers résultats de ce chantier ont commencé à apparaitre dans les versions destinées aux testeurs du programme Windows Insider, en attendant le tour du grand public.
CPUID, l’éditeur des utilitaires CPU-Z et HWMonitor, a été victime d’un hack ayant permis à des malandrins de distribuer un cheval de Troie à la place de ces deux outils. Les liens de téléchargement officiels ont été modifiés pour pointer vers des fichiers malveillants. L’attaque a eu lieu entre les 9 et 10 avril. La situation est désormais sous contrôle.
Screenshot des utilitaires CPU-Z et HWMonitor
Ces deux logiciels comptent des millions d’utilisateurs. CPU-Z est un outil d’identification des composants d’un PC, HWMonitor surveille les capteurs (température, ventilos, etc.). Ceux qui ont eu le malheur de télécharger ces utilitaires durant l’attaque se sont retrouvés avec une variante malveillante de HWiNFO, un outil de diagnostic créé par un autre développeur.
Le logiciel piégé, baptisé « HWiNFO_Monitor_Setup », installe un malware d’origine russe depuis un nom de domaine compromis, détaille vx-underground. Il agit de manière progressive en plusieurs étapes pour ne pas éveiller les soupçons, exécute ses actions directement dans la mémoire vive en évitant d’écrire sur le disque du PC, et utilise des techniques d’évasion pour échapper aux antivirus et aux systèmes de détection.
Le fichier compressé de l’application vérolée est tout de même identifié par une vingtaine d’antivirus, qui le classent comme un cheval de Troie ou un infostealer. Samuel Demeulemeester, alias Doc Teraboule, le développeur derrière CPU-Z et HWMonitor, a assuré que la faille avait été identifiée et corrigée.
Si l’enquête est toujours en cours, il semble qu’une fonction secondaire (une API annexe) a été compromise « pendant environ six heures entre le 9 et le 10 avril ». Doc TB précise à Next que les liens vers le fichier vérolé sont restés en ligne sur le site de CPUID entre 2 h et 8 h (heure française). Seules les dernières versions de CPU-Z et HWMonitor proposées sous la forme d’un fichier compressé .ZIP ont été touchés, pas les .EXE. Il précise aussi que l’app malveillante n’étant pas signée, elle déclenchait donc Windows Defender immédiatement à l’extraction. De quoi limiter l’impact de l’infection.
Important aussi à avoir en tête : les fichiers hébergés sur le serveur de CPUID n’ont pas été compromis, uniquement les liens du site web. Les mises à jour automatiques des logiciels n’ont pas été touchées. Concernant l’attaque en elle-même, son envergure était a priori prévue pour être plus importante encore, puisque les pirates sont parvenus à compromettre les clés TLS privées en exploitant une faille Apache (les certificats compromis ont été révoqués).
Le développeur, toujours à pied d’œuvre, a pu réagir rapidement grâce aux experts en sécurité (et Reddit !) qui lui ont donné un coup de main.
Meta gêné aux entournures. Le géant des réseaux sociaux a nettoyé Facebook, Instagram, Threads et Messenger de dizaines de publicités pour des firmes d’avocats proposant leurs services… contre Meta. Fin mars, l’entreprise et YouTube étaient condamnés par une cour californienne à verser un total de 6 millions de dollars à une jeune plaignante souffrant de troubles de la santé mentale suite à son usage de leurs services.
Il a été démontré que Meta et YouTube avaient mis en place des fonctions visant à créer une dépendance à leurs plateformes. Les deux groupes ont annoncé faire appel, mais tout de même : cette décision de justice pourrait faire jurisprudence.
On a même parlé d’un moment « big tobacco » pour ces réseaux sociaux, en référence à ces grands procès des années 90 qui ont établi la responsabilité des fabricants de cigarettes, non seulement pour les dégâts provoqués par leurs produits sur la santé, mais aussi pour les mécanismes d’addiction qu’ils avaient eux-mêmes contribué à mettre en place.
Évidemment, la comparaison n’est pas flatteuse et Meta ne veut absolument pas être pris dans cette nasse. Les appels confirmeront ou infirmeront la décision judiciaire, mais sans attendre, les avocats spécialisés dans les litiges cherchent à en tirer profit. Des publicités ont ainsi commencé à fleurir sur les réseaux sociaux du groupe, pour recruter de nouveaux plaignants en vue de constituer des actions collectives. Ces procédures (« class actions ») peuvent déboucher sur des indemnisations substantielles, synonymes d’honoraires substantiels.
Dans une de ces pubs repérées par Axios, on peut lire : « Anxiété. Dépression. Dépendance. Automutilation. Ce ne sont pas de simples phases de l’adolescence — ce sont des symptômes liés à l’addiction des enfants aux réseaux sociaux. Les plateformes le savaient et ont continué à cibler les plus jeunes malgré tout. » Meta n’a pas apprécié, et a supprimé ces réclames. Quelques-unes seraient toujours actives, mais l’entreprise veille au grain.
Meta s’appuie sur une clause de ses conditions d’utilisation qui lui permet de supprimer des contenus « si nous estimons que c’est raisonnablement nécessaire pour prévenir ou limiter une utilisation abusive de nos services ou des conséquences juridiques ou réglementaires défavorables pour Meta ».
Un porte-parole confirme que l’entreprise supprimera les publicités visant à recruter des plaignants sur la base de cette décision de justice. « Nous ne permettrons pas à des avocats spécialisés dans les litiges de tirer profit de nos plateformes tout en affirmant qu’elles sont nocives. »
La Wii est un Mac comme un autre, la preuve : la vénérable console de Nintendo peut faire tourner Mac OS X ! Il n’y avait fondamentalement aucun obstacle insurmontable, il suffisait « juste » de plonger les mains dans le cambouis très profondément. Bryan Keller, développeur de son état, avait cette envie depuis l’université, en 2013. Mais difficile de se lancer dans un tel projet sans une solide motivation (et un peu de temps devant soi).
Le déclic est arrivé l’an dernier, lorsqu’il a appris que Windows NT avait été porté sur la Wii. La console est ouverte à la bidouille : Linux et NetBSD peuvent ainsi fonctionner dessus. Porter Mac OS X (10.0 Cheetah, la première version du système d’exploitation de 2001) n’était pas, sur le papier, complètement farfelu. Après tout, la Wii tourne avec un processeur PowerPC 750CL, une évolution du PowerPC 750CXe utilisé dans l’iBook G3 et présent dans certains modèles d’iMac G3.
Côté logiciel, Mac OS X repose sur un cœur open source (Darwin) dont les composants peuvent être modifiés pour permettre aux éléments propriétaires, comme le Finder, le Dock et les apps d’Apple, de tourner sans avoir à les modifier. Sur la Wii, une partie du travail a été mâché grâce au jailbreak de la console.
Il a fallu ensuite se plonger dans les spécificités matérielles de la console, comme par exemple Hollywood. Ce système-sur-puce intègre un coprocesseur ARM pour que le processeur de la Wii puisse communiquer avec son GPU, la carte SD, le stockage, le Wi-Fi, le Bluetooth, etc. Bryan Keller a développé un pilote pour Hollywood, mais aussi pour le lecteur de carte SD afin de booter sur Mac OS X.
Une fois ces bases posées, le système tentait bien de lancer l’interface graphique de Mac OS X, mais sans pilote adapté, impossible d’afficher quoi que ce soit correctement. Le composant WindowServer, chargé de gérer l’affichage, refusait tout simplement de fonctionner. Le bidouilleur a dû s’attaquer à un élément fondamental : le framebuffer. C’est une zone de mémoire vive contenant les données de chaque pixel affiché à l’écran. Faute de pilote compatible avec le matériel de la Wii, il a donc fallu en écrire un de toutes pièces pour permettre à Mac OS X d’afficher son interface.
On vous passe les autres péripéties techniques qui ont occupé Bryan Keller de longues heures (jours/semaines). Le résultat est là : Mac OS X tourne donc sur une Wii, qui prend même en charge un clavier et une souris via son port USB. « Il y a quelque chose de profondément satisfaisant dans le fait de réussir quelque chose dont on n’était même pas sûr, au départ, que ce soit possible », explique-t-il.
Pour les amateurs qui voudraient s’occuper le temps d’un week-end, le développeur a publié tout l’attirail logiciel de sa solution wiiMac sur GitHub.
Little Snitch est un utilitaire bien connu des utilisateurs de Mac. L’outil surveille et contrôle les connexions sortantes des applications installées sur sa machine. La première version remonte à 2003, ce qui ne rajeunira personne, et les mises à jour régulières distribuées par le studio autrichien Objective Development ont achevé d’en faire un logiciel essentiel sur la plateforme. C’est donc une petite surprise de voir débouler une version Linux ! Cette mouture est en fait la conséquence d’un besoin personnel du développeur Christian Starkjohann, qui a migré sur Linux et qui s’est senti « tout nu » sans Little Snitch.
Comme sur Mac, Little Snitch sur Linux révèle l’activité réseau des applications, et donne à l’utilisateur la possibilité d’agir, c’est-à-dire de bloquer la connexion si elle n’a pas été autorisée. L’application permet de voir la manière dont les logiciels interagissent avec les serveurs, et lesquels. On a également l’accès à l’historique du trafic ainsi que des volumes des données échangées.
Little Snitch sur Linux.
Avec l’aide de listes de blocage, Little Snitch est en mesure de bloquer d’un coup des catégories de trafic indésirable. Ces listes peuvent être téléchargées depuis des sources distantes, et le logiciel se charge de les mettre à jour automatiquement. Attention cependant, le format .lsrules de la version macOS n’est pas compatible. L’utilisateur a aussi la possibilité de créer ses propres règles pour cibler un processus ou un port spécifique.
Le logiciel peut être configuré pour réclamer une authentification préalable de l’utilisateur, pour éviter toute manipulation malintentionnée. Les développeurs soulignent que sur Linux, Little Snitch est conçu pour la confidentialité, mais pas pour la sécurité contrairement à la version Mac qui offre de solides garanties dans ce domaine.
La base sur laquelle repose le logiciel est eBPF, un mécanisme du noyau analysant les flux réseau qui impose des contraintes strictes en termes de stockage et de complexité des programmes. Quand le trafic est important, le suivi des connexions perd en fiabilité et certaines informations ne peuvent être reconstituées qu’approximativement, explique le studio. Sur Mac, il est possible d’inspecter les paquets pour réaliser les associations d’une manière plus fiable.
L’interface de Little Snitch est une web app (le logiciel en lui-même est développé en Rust). Un choix qui peut paraitre curieux pour un tel outil, mais qui permet de surveiller les connexions réseau d’un serveur Linux distant à partir de n’importe quel appareil. L’application a trois composants : le programme du noyau eBPF et l’interface web sont disponibles en open source sur GitHub, le démon est quant à lui propriétaire. Mais il est autorisé de l’utiliser et de le redistribuer gratuitement.
Linux ne manque pas d’outils de surveillance des connexions réseau, à l’image d’OpenSnitch, sans oublier les outils en ligne de commande. Mais comme sur Mac, Little Snitch facilite la vie des utilisateurs qui auront sous les yeux une seule interface pour observer le trafic réseau, et pour le bloquer le cas échéant. Le logiciel, compatible avec le noyau 6.12 de Linux et au-delà, est gratuit et il le restera pour toujours, promet Objective Development.
Au bout de 49 jours, 17 heures, 2 minutes et 47 secondes, un Mac resté allumé tout ce temps commencera à perdre sa connexion réseau. La seule solution ? Le redémarrage de l’ordinateur. En cause : un problème d’horloge interne…
Une « bombe à retardement », c’est ainsi que Photon, un service qui connecte des agents IA à iMessage d’Apple, qualifie sa découverte sur Mac. L’image est parlante, mais un rien exagérée car il suffit d’un redémarrage pour que tout revienne à la normale. Néanmoins, cette « date d’expiration » peut représenter un sérieux problème dans les organisations qui ont besoin de faire tourner des Mac en continu.
Une horloge interne en panique
Le noyau XNU de macOS en charge des ressources du Mac, s’appuie sur un compteur interne pour suivre le temps dans la gestion des connexions réseau, sous la forme d’un entier non signé sur 32 bits. Il peut donc contenir des valeurs allant de 0 à 4 294 967 295 (2³²). Si on se sert d’un entier non signé de 32 bits pour compter le temps en millisecondes, le compteur peut donc aller jusqu’à 4 294 967 secondes, soit 49 jours, 17 heures, 2 minutes et 47 secondes. Au-delà ? Ça dépend des cas : retour à zéro, plantage…
Photon a découvert que sur Mac, une vérification mal conçue dans le noyau empêche le système de reconnaître correctement ce basculement après les 49 jours, 17 heures… Tant que le compteur peut augmenter, tout fonctionne normalement. Mais quand il atteint sa limite et repart de zéro, la machine se grippe. macOS considère alors, à tort, que le nouveau temps est « inférieur » à l’ancien et refuse de l’enregistrer.
Le sujet n’est pas nouveau et largement documenté. On le trouve par exemple dans le bug de l’an 2038 sur Linux. Un petit changement sur Debian depuis la version 13 a permis de résoudre le souci : la distribution utilise le format 64 bits (au lieu de 32 bits), de quoi repousser l’échéance de… 292 milliards d’années. Si on remonte dans le temps à l’époque de Windows 95, certains se souviendront peut-être que le système plantait aussi après 49,7 jours d’utilisation.
Résultat, l’horloge TCP reste figée à sa dernière valeur valide. Tous les mécanismes qui dépendent du temps, à l’image de la suppression des connexions fermées, cessent de fonctionner normalement. Il en va ainsi des ressources réseau qui dépendent des connexions TCP : elles s’accumulent jusqu’à saturation, ce qui rend impossible l’ouverture de nouvelles connexions.
Le redémarrage, ultime solution pour l’instant
Photon s’est rendu compte du problème en surveillant sa flotte de Mac qui font tourner plusieurs services iMessage. Des machines qui fonctionnent 24/7 et ne redémarrent qu’en cas de nécessité absolue. Plusieurs de ces Mac ont cessé d’établir de nouvelles connexions TCP 49,7 jours après leur dernier redémarrage.
« Les pings continuaient de fonctionner. Les connexions existantes restaient actives. Mais toute tentative nécessitant l’ouverture d’un nouveau socket TCP échouait », écrit le service. Seule solution : un redémarrage. Cela concerne donc les Mac fonctionnant en continu pendant plus de 49 jours et 17 heures sans redémarrer et qui ont une activité réseau TCP (tous les Mac connectés, au fond).
Selon Tidbits, il semblerait que le bug soit circonscrit à macOS Tahoe, la dernière version du système d’exploitation (macOS 26). Les précédentes moutures de l’OS ne seraient pas affectées, ce qui explique pourquoi le problème n’a jamais été remonté auparavant. Photon de son côté laisse entendre que le bug pourrait remonter à Catalina… Apple ne s’est pour le moment pas exprimé.
Par ailleurs, un Mac en veille devrait aussi repousser l’échéance fatale. De plus, sur un ordinateur peu sollicité, l’épuisement des ports peut aussi mettre beaucoup plus de temps pour devenir perceptible. Pour le grand public, ce n’est pas nécessairement un bug handicapant : même si l’habitude d’éteindre son ordinateur tous les soirs en partant du bureau s’est perdue, il arrive tout de même assez régulièrement de devoir redémarrer sa machine. Ne serait-ce que pour installer une mise à jour du système.
Pour savoir depuis quand un Mac est allumé, il suffit de saisir la commande uptime dans un Terminal :
Ce compteur défectueux posera davantage de problème dans des environnements professionnels, comme c’est le cas chez Photon mais aussi dans des entreprises qui se servent de Mac Pro ou de Mac Studio pour des tâches très longues (rendu, compilation, simulation…) ou au sein de structures hébergeant des Mac en colocation administrés à distance.
Ou encore dans les fermes de Mac mini pour le partage de calcul ou les infrastructures de test. Néanmoins, ces services évitent de faire tourner leurs serveurs Mac avec la version la plus à jour de macOS, pour des questions de sécurité et de fiabilité. Il n’empêche qu’il s’agit tout de même là d’un bug qu’Apple serait avisée de corriger rapidement.
Amazon ferme la porte de sa bibliothèque aux anciens Kindle. Les liseuses et les tablettes Kindle Fire sorties avant 2012 ne pourront plus accéder à la boutique de livres numériques à compter du 20 mai. Les bouquins déjà stockés sur ces appareils continueront d’être lisibles, mais il ne sera plus possible d’en acheter et télécharger de nouveaux.
Ces appareils se transformeront donc petit à petit en presse-papiers de luxe, ce d’autant qu’en cas de problème, une réinitialisation dans les paramètres d’usine rendra la liseuse ou la tablette complètement inutilisable. Il en ira de même si on a le malheur de retirer son compte de la liseuse : on ne pourra plus s’y reconnecter. Sur les Kindle Fire, les services autres que l’achat de contenus resteront fonctionnels.
L’obsolescence programmée de ces appareils concerne le Kindle de première génération, celui sorti en 2007, les Kindle DX/DX Graphite (2009/2010), le Kindle Keyboard (2010), les Kindle 4 et Kindle Touch (2011), ainsi que les Kindle 5 et Kindle Paperwhite 1ère génération (2012). Du côté des tablettes, sont touchées les Kindle Fire 1re et 2e génération (2011), Kindle Fire HD 7 et 8,9 (2012).
L’entreprise se justifie auprès d’Engadget : « Ces modèles ont été pris en charge pendant au moins 14 ans – certains jusqu’à 18 ans – mais la technologie a énormément évolué depuis… » Selon Amazon, la fermeture définitive du Kindle Store touchera 3 % des utilisateurs actuels. Pour faire passer la pilule, l’entreprise va contacter ces lecteurs en leur proposant une remise de 20 % sur une sélection de nouveaux modèles, ainsi qu’un crédit pour acheter des livres.
Si les tablettes d’Amazon ne sont pas forcément les plus durables du marché, les liseuses du constructeur sont des terminaux solides qui peuvent encore rendre bien des services. Ne plus pouvoir accéder à de nouveaux livres sur ces appareils – ce qui est leur seule et unique fonction – est pour le moins malheureux. Mais pas si étonnant au vu de la politique de verrouillage d’Amazon. Ainsi, depuis le 26 février 2025, la fonction de téléchargement et de transfert via USB depuis le site web du commerçant n’existe plus.
Celle-ci permettait de transférer par USB des livres Kindle (AZW3, KFX) téléchargés sur son ordinateur vers une liseuse de la marque. Amazon avançait des raisons de sécurité, en précisant que les nouveaux contenus pourront toujours être envoyés par Wi-Fi (un composant dont les Kindle ont été privés jusqu’en 2010 et le Kindle Keyboard).
On peut toujours transférer des fichiers sur une liseuse Kindle, y compris des PDF et des ePub, avec l’outil Send to Kindle, disponible sous forme d’application (à utiliser avec un câble USB) ou en ligne. Mais la limite est de 200 Mo. Le célèbre logiciel Calibre peut aussi être d’un précieux secours pour transférer des livres sur les Kindle ainsi qu’un grand nombre d’autres appareils.
Les possesseurs d’anciens Kindle qui ne veulent plus s’embêter à jongler avec les formats propriétaires et les verrous logiciels ont l’embarras du choix pour aller voir ailleurs. Les liseuses concurrentes des Kindle sont légion et, à l’instar des modèles de Kobo ou de PocketBook, les constructeurs affichent clairement leur soutien à des écosystèmes plus ouverts.
Avec Muse Spark, son nouveau grand modèle de langage (LLM), Meta joue gros. Il s’agit non seulement de faire oublier l’échec de Llama, la précédente génération de LLM maison, mais aussi de justifier l’investissement maousse costaud dans le labo dédié à la « superintelligence ».
Llama 4, lancé il y a quasiment un an jour pour jour, n’a pas été le succès tant espéré par Mark Zuckerberg qui veut sa part du gâteau de l’IA générative. Pire encore, des soupçons de triche dans plusieurs benchmarks ont définitivement entaché la réputation du grand modèle de langage. Un affront pour le patron de Meta, qui digère toujours l’échec de sa stratégie du métavers.
Une muse pour le cerveau de Meta AI
Hauts les cœurs et les portefeuilles : loin de se laisser abattre par le flop de Llama, Meta a mis la main à la poche pour s’offrir la crème de la crème des spécialistes de l’IA. Débauchés dans toute l’industrie de la tech, ils ont à leur tête Alexandr Wang, l’ancien dirigeant de Scale AI, dont le géant des réseaux sociaux a pris le contrôle l’été dernier en échange de 14,3 milliards de dollars. Pour se transformer en place forte de l’IA, Meta a même laissé partir des vétérans, comme son directeur scientifique Yann LeCun.
Ces experts, regroupés au sein du « Meta Superintelligence Lab » (MSL), planchent sur la nouvelle marotte de Mark Zuckerberg, la « personal superintelligence ». Un concept pour le moins flou censé « aider l’humanité à accélérer sur la voie du progrès », expliquait le CEO dans un mémo. « Plus important encore, la superintelligence pourrait ouvrir une nouvelle ère d’émancipation individuelle, où chacun disposerait d’une plus grande liberté d’action pour améliorer le monde selon ses propres choix », poursuivait-il.
Les grands discours sont une chose, la réalité en est une autre. La première réalisation concrète du MSL est baptisée Spark, premier LLM de la nouvelle famille Muse dont l’ambition se limite, si on peut dire, à alimenter le moteur IA de l’assistant du groupe. Présent dans l’application mobile Meta AI et en ligne à l’adresse meta.ai – aux États-Unis pour commencer –, le modèle se veut résolument utile.
L’utilisateur de Meta AI pourra par exemple obtenir un itinéraire complet pour un voyage familial en Floride, avec l’aide des sous-agents de Muse Spark : le premier va établir le parcours, le second va comparer plusieurs lieux, un troisième s’occupe de trouver des activités pour les minots.
Tant qu’on a la santé
Avec ses capacités multimodales, le modèle peut « lire » une image et donner des informations sur les objets présents. Voilà qui n’a rien de franchement révolutionnaire, la plupart des IA grand public offrant le même type de fonctionnalités.
Pour tirer son épingle du jeu, Meta met en avant un aspect singulier de la perception multimodale de Muse Spark : son utilité dans le domaine de la santé. Meta AI serait ainsi en mesure de répondre de manière détaillée à des questions de santé, « y compris pour certaines questions impliquant des images et des graphiques ».
Feriez-vous vraiment confiance à une IA pour calculer des calories ?
Le secteur de la santé a été investi par les grands acteurs de l’IA : Anthropic, OpenAI, Microsoft et Perplexity se sont tous lancés avec des déclinaisons « Health » de leurs chatbots. Et le moins qu’on puisse dire, c’est qu’il vaut mieux éviter de remplacer son médecin traitant par ces versions IA pour le moment…
Muse Spark se veut tout aussi doué pour générer de petits jeux que pour le lèche-vitrine virtuel ou trouver des adresses de lieux sympas à découvrir (gare aux hallucinations tout de même). Ce n’est que le début, prévient Meta : « Attendez-vous à des résultats plus riches et plus visuels, avec des Reels, des photos et des publications directement intégrés aux réponses, tout en créditant leurs créateurs ». L’AI slop a encore de beaux jours devant elle.
À terme, Muse Spark va se faire une petite place dans les autres produits et services de Meta : Facebook, Instagram, Messenger, WhatsApp ainsi que dans les lunettes connectées. L’entreprise compte aussi proposer son LLM à des tiers, mais au travers d’un « aperçu privé » sous la forme d’une API limitée à quelques partenaires triés sur le volet. Meta espère être en mesure d’ouvrir les futurs modèles Muse à l’open source. Google a pris ce virage avec Gemma4 annoncé la semaine dernière.
Ce premier modèle, qualifié de « petit et rapide », se décline en deux moutures, Instant pour les réponses rapides et Thinking quand il est nécessaire de se creuser un peu le ciboulot. Selon Meta, « les résultats sont sans équivoque : nous pouvons atteindre les mêmes performances avec un ordre de grandeur en moins [généralement cela fait référence à un rapport de 10x moins, ndlr] sur la puissance de calcul par rapport à notre modèle précédent, Llama 4 Maverick ». Un troisième mode, Contemplating, saura orchestrer plusieurs agents raisonnant en parallèle ; il sera déployé progressivement dans meta.ai.
Au vu des benchmarks fournis par Meta, le MSL a effectivement soigné les fonctions multimodales, Muse Spark surclassant la concurrence sur l’interprétation des images, des graphiques et des interfaces ; le contraire aurait été étonnant dans des benchmarks mis en avant par Meta.
C’est plus inégal sur les tâches de raisonnement pur (logique, maths), tandis que le modèle se débrouille plutôt bien en code, sans être leader incontestable. Il affiche également une vraie spécialisation dans le domaine de la santé. Meta admet des « gaps » de performance dans les systèmes agentiques et les flux de coding.
Sur le plan de la sécurité, Meta ne livre pas encore de rapport de sécurité complet, mais assure que Muse Spark adopte un comportement de refus « robuste » dans des domaines à haut risque (armes chimiques et biologiques). L’entreprise promet également que le modèle n’a pas présenté de capacités autonomes ni de « tendances dangereuses » qui lui permettraient de mettre en œuvre des scénarios de menace dans le domaine de la cybersécurité.
Muse Spark peut s’enorgueillir d’avoir décroché le plus haut niveau de « conscience de l’évaluation » observé à ce jour parmi les modèles testés par le labo indépendant Apollo Research. Mark Zuckerberg en est persuadé : les futurs modèles Muse permettront à Meta de créer des services qui ne se contentent pas de répondre aux questions, mais d’agir aussi comme des agents « capables d’effectuer des tâches à votre place ». Il se dit convaincu que ses LLM soutiendront « une vague de créativité, d’entrepreneuriat, de croissance et d’amélioration de la santé. »