Vue lecture

☕️ Meta investit de nouveau dans le nucléaire, cette fois dans l’Illinois

Si toutes les grandes entreprises américaines de la tech avaient un programme carbone censé atteindre la neutralité vers 2030, presque aucune aujourd’hui ne communique sur ce thème. La faute à l’intelligence artificielle générative, qui a fait s’envoler la consommation.

Oracle, Amazon, Microsoft puis Meta ont tous annoncé des investissements dans le nucléaire. Les géants n’ont rien dit sur la neutralité carbone, l’explosion de l’IA ayant chamboulé les projets dans ce domaine. On peut imaginer néanmoins que l’énergie nucléaire est un bon moyen d’obtenir une grande quantité d’électricité sans faire exploser le compteur des gaz à effet de serre.

Crédits : Daniel Schwen, Wikipedia

Et voilà que Meta investit de nouveau dans le nucléaire. Dans un communiqué publié hier soir, la société Constellation Energy a annoncé un partenariat de 20 ans sur la centrale du Clinton Clean Energy Center, située à Clinton dans l’Illinois. L’accord porte sur les 1 121 MW de la centrale, bien que ce chiffre doive augmenter de 30 MW grâce à une modernisation des installations, « préserver 1 100 emplois locaux bien rémunérés, générer 13,5 millions de dollars de recettes fiscales annuelles et ajouter 1 million de dollars de dons à des organisations caritatives locales sur une période de cinq ans », explique Constellation.

Comme l’indique également l’entreprise, la centrale devait initialement fermer en 2017 « après des années de pertes financières ». Ce n’est que grâce à l’arrivée du Future Energy Jobs Act que la centrale a perduré, perfusée à l’argent public jusqu’en 2027. L’accord signé avec Meta permet d’étendre l’exploitation de la centrale jusqu’en 2047. Constellation envisage également la construction d’un autre réacteur sur le site.

  •  

GLF OS, distribution Linux spécialisée dans le jeu vidéo, est disponible en bêta

Brave new world
GLF OS, distribution Linux spécialisée dans le jeu vidéo, est disponible en bêta

La distribution GLF OS, axée sur le jeu vidéo, est désormais disponible en bêta publique. Dans ce premier article, nous allons présenter les grandes lignes du système. Dans un deuxième temps, nous ferons une prise en mains de GLF OS et nous pencherons plus généralement sur le jeu vidéo sur Linux.

Le jeu vidéo représente souvent une barrière au changement d’environnement. Sur PC, l’immense majorité des titres ne sont disponibles que sous Windows, quelle que soit la boutique utilisée pour y jouer. Il est plus simple de trouver des équivalents Linux pour la plupart des applications que de faire fonctionner ses jeux préférés. Du moins, ce fut le cas pendant longtemps.

La situation a sérieusement commencé à évoluer ces dernières années, sous l’impulsion de Valve particulièrement. Le projet Proton, issu d’un fork de Wine, est désormais au cœur d’une offensive de l’éditeur dans le monde du jeu vidéo. Il est pleinement intégré à Steam OS, que l’on retrouve surtout sur la console portable Steam Deck. Celle-ci ayant connu un grand succès commercial, elle a fait des émules, entrainant une réflexion nouvelle sur la possibilité de jouer sur Linux. GLF OS arrive donc à un tournant intéressant.

Une naissance simple

Vinceff, très impliqué dans la communauté Linux avec notamment de nombreuses vidéos tutos, est l’initiateur de GLF OS (dépôt GitHub). Comme il nous le raconte, il était utilisateur de Mageia. Il avait basculé sur Linux après une énième mise à jour problématique de Windows 10 et s’était rendu compte que ses jeux principaux fonctionnaient sur la distribution. C’est dans ce contexte qu’il commence à proposer des vidéos.

Rapidement, la chaine YouTube gagne des dizaines d’abonnés. Quand le cap des 250 est franchi, Vinceff décide d’ouvrir un serveur Discord pour favoriser les discussions. Il le nomme simplement Gaming Linux FR et les personnes affluent, aussi bien des « sachants » que d’autres, intéressées par le thème et cherchant des réponses à des problèmes pratiques.

Le Discord, créé pendant la crise sanitaire, compte aujourd’hui plus de 3 300 membres. Aucune distribution n’est privilégiée, la thématique étant l’entraide sur le thème général du jeu sur Linux. L’idée est cependant venue d’une distribution qui serait entièrement tournée vers le jeu, en facilitant la prise en main et en donnant immédiatement accès aux outils courants. Le projet a été nommé GLF OS, GLF étant une simple contraction de Gaming Linux FR.

Le système est aujourd’hui le résultat d’un travail d’équipe, comprenant des contributions de plusieurs dizaines de développeurs, le cœur de l’équipe étant constitué d’une petite vingtaine de personnes. Le projet, lui, est codirigé par Vinceff et Cammi.

Une base NixOS

Un grand nombre de distributions sont basées sur Debian ou Ubuntu. GLF OS a regardé ailleurs : vers NixOS. Cette distribution Linux ne date pas d’hier, puisque le projet de recherche qui lui a donné naissance date de 2003. Le système a même sa propre fondation depuis 2015.

NixOS est avant tout basée sur le gestionnaire de paquets Nix. Tout se fait par une configuration déclarative : on écrit dans un fichier texte ce que l’on souhaite, et le gestionnaire construit le système à partir de ces informations. C’est autant le cas pour l’installation initiale que pour les mises à jour.

Comme nous l’explique Vinceff, cette approche déclarative est couplée à une gestion transactionnelle des configurations. Les mises à jour sont donc atomiques, ce qui signifie – dans les grandes lignes – que les opérations liées créent une nouvelle image du système, sur laquelle l’utilisateur ne bascule réellement qu’au redémarrage suivant, si aucune erreur n’a été détectée. Ce mécanisme permet une fiabilité généralement plus élevée, car l’image utilisée est en lecture seule. L’atomicité a particulièrement le vent en poupe depuis quelques années, notamment chez Fedora.

NixOS propose toujours deux versions par an, en mai et novembre. La numérotation des versions est la même que pour beaucoup de distributions : l’année suivie du mois. La toute fraiche version 25.05 désigne ainsi la version « mai 2025 ». Le système est disponible en deux branches, stable et unstable. Pour ses objectifs, GLF OS compose avec les deux, comme nous le verrons.

GLF OS : premier contact

L’installation de GLF OS ne réserve aucune surprise. L’environnement par défaut est GNOME, mais l’installateur permet de changer pour KDE. Pour le reste, on est sur la liste habituelle des questions pour cette étape, avec choix du partitionnement, création du temps, sélection du fuseau horaire, etc.

Il y a quand même une étape importante : le choix de l’édition. Par défaut, « Standard » installe la version complète du système pensée pour le jeu vidéo, qui réclame environ 20 Go d’espace libre. Il s’agit d’une suite complète, avec notamment Firefox en navigateur par défaut et LibreOffice pour la bureautique. On peut également choisir une installation minimale, fournie presque sans aucune application. Deux autres éditions sont proposées. La première, Studio, est orientée vers tout ce qui touche à la création graphique. La seconde est une variation intégrant Da Vinci Resolve (une licence est nécessaire).

L’installation (Standard dans notre cas) est un peu plus longue que pour une distribution ordinaire, NixOS ayant besoin d’un peu plus de temps pour construire le système, à partir des scripts propres à GLF OS. Au redémarrage, le bureau est très classique. Bien qu’il s’agisse d’une base GNOME modifiée, notamment pour avoir un dock affiché en permanence (via Dash to Dock), elle ne choquera pas longtemps une personne venant de n’importe quelle autre distribution GNOME.

L’un des éléments peut-être les plus « étranges », c’est l’absence apparente de gestion des mises à jour. Le système s’en occupe en fait seul et envoie simplement une notification pour indiquer qu’une opération est terminée. Dans ce cas, les changements ne seront pas appliqués tant que GLF OS n’aura pas redémarré. Le redémarrage n’est jamais suggéré.

En outre, l’installation d’applications supplémentaires se fait via Flatpak et passe par Easy Flatpak. L’approche générale de GLF OS se veut résolument moderne : un système atomique et des conteneurs logiciels.

Le jeu vidéo comme spécialité

GLF OS étant spécialisée dans le jeu vidéo, la distribution contient plusieurs applications dédiées à cet usage. Déjà, les personnes ayant un PC équipé d’un GPU NVIDIA auront la bonne surprise de constater que ce dernier est détecté et que l’installation des pilotes correspondants est automatique.

Côté logithèque, on retrouve bien sûr Wine et Proton, tous deux disponibles dans leur dernière révision. La distribution propose également trois applications cruciales : Steam évidemment, ainsi que Lutris et Heroic. Les deux dernières sont des clients capables de se connecter à des comptes Steam, Ubisoft, EA, Epic, GOG ou encore Amazon. De là, ils permettent l’accès aux jeux en créant un environnement préconfiguré pour permettre leur lancement grâce à Proton.

Dans cet esprit d’une plateforme pensée pour le jeu vidéo, on trouve tout un ensemble de modifications et d’ajouts. Par exemple, la base du système repose sur la branche stable de NixOS (GNOME, KDE, Wayland, Pipewire, pilotes NVIDIA…), mais tout ce qui nécessite des mises à jour régulières s’appuie sur la branche unstable. C’est le cas pour toutes les applications en lien avec le jeu vidéo comme Steam, Heroic Games Launcher, Lutris, Proton, Mesa et autres.

GLF OS apporte en outre ses propres modifications, dont le kernel qui est une version 6.14 modifiée pour régler certains soucis de compatibilité, notamment avec le Ryzen 9800 X3D d’AMD. L’équipe a également intégré des paquets pour étendre le support des volants de jeu (ThrustMaster, Fanatec et Logitech) et des manettes (Xbox, PlayStation, Switch et 8bitdo).

Nous aurons l’occasion de revenir sur le sujet avec une prise en main concrète et un retour d’expérience sur ce qu’est le jeu vidéo sur Linux aujourd’hui. En attendant, la bêta de GLF OS peut être téléchargée depuis son site officiel.

  •  

☕️ ChatGPT étend sa « mémoire » à tous les utilisateurs gratuits

OpenAI a lancé en avril sa fonction Memory pour ChatGPT. Réservée aux personnes détentrices d’un abonnement payant, elle permet de retenir des informations entre plusieurs sessions d’utilisation. Par exemple, si l’on évoque dans ChatGPT une allergie alimentaire, le service s’en souviendra et n’évoquera pas cet aliment dans des idées de recettes. Du moins en théorie.

Depuis hier soir, cette fonction est disponible pour tous, a annoncé Sam Altman. Sous une certaine forme en tout cas, car la capacité à retenir des informations sera moindre que pour les comptes payants. Memory garde cependant son potentiel de transformer la manière d’interagir avec ChatGPT, en rendant l’expérience plus personnelle.

Boite de conserve avec du faux cerveau en cube pixelisé par Flock

Ce point ne plaira pas à tout le monde. En Europe et dans plusieurs autres pays comme le Royaume-Uni et le Lichtenstein, la fonction n’est d’ailleurs pas activée par défaut. Il faudra se rendre dans Paramètres > Personnalisation > Mémoire > Référence à l’historique de chat pour l’activer. Dans le reste du monde, dont les États-Unis, elle est activée par défaut mais peut être coupée dans les paramètres.

Pour les personnes qui ne connaitraient pas le fonctionnement de cette mémoire, il faut la distinguer du fonctionnement habituel de ChatGPT. On peut demander au service en effet de retenir spécifiquement une information. Avec Memory, c’est ChatGPT lui-même qui retient ce qui lui parait important.

Dans les paramètres, on peut d’ailleurs voir une jauge indiquant le remplissage de cette mémoire. Il n’y a pas de contrôle direct sur les informations stockées par ChatGPT, OpenAI ne fournissant pas de liste, qui aurait pu servir à supprimer sélectivement les données. On peut interroger ChatGPT sur ce qu’il « sait » et demander à supprimer des informations spécifiques.

  •  

GitHub fait marche arrière sur la création de tickets assistée par IA

GitHub fait marche arrière sur la création de tickets assistée par IA

GitHub a inauguré le 19 mai dernier, en preview publique, une fonctionnalité visant à faciliter la création de tickets à l’aide de l’intelligence artificielle de Microsoft, Copilot. Face à la bronca des utilisateurs, la plateforme a discrètement fait marche arrière… pour mieux revenir ultérieurement ?

Point d’orgue de l’année chez Microsoft en matière d’annonces dédiées au monde des développeurs, la conférence Build a, cette année encore, accordé une place prépondérante à l’intelligence artificielle générative. Au gré de ses différentes présentations, l’éditeur a réaffirmé son ambition d’installer un « agent IA » partout où l’utilisation d’un modèle de langage serait susceptible d’avoir un intérêt.

Événement pour développeur oblige, GitHub (racheté pour mémoire 7,5 milliards de dollars en 2018) figurait logiquement au centre des attentions avec, entre autres annonces, une mise à niveau significative de l’assistant GitHub Copilot, censée faire de ce dernier un véritable agent capable de coder de façon autonome au sein d’un environnement spécifié par l’utilisateur.

Des tickets assistés par IA

Outre cet agent, à qui il suffit d’assigner un ticket pour l’activer, GitHub a profité de la Build pour déployer, plus discrètement cette fois, une autre fonctionnalité destinée aux utilisateurs finaux de la plateforme. « Pour vous aider à créer plus facilement des tickets de meilleure qualité, vous pouvez désormais créer des tickets en discutant avec Copilot », a introduit un porte-parole de l’entreprise.

Dans son billet d’annonce, il décrit comment le prompt « crée-moi un ticket pour un problème de rendu du markdown dans les commentaires », associé à une capture d’écran illustrant le défaut, entraîne la création d’un ticket complet, dûment documenté, avec description, et comparaison entre les comportements constaté et attendu. Bref, un rêve de développeur ? « Nous espérons que ces changements changeront la corvée de la création de tickets en jeu d’enfant, vous libérant ainsi un temps précieux pour vous concentrer sur la résolution des problèmes, et pas seulement sur leur documentation », se réjouit l’éditeur.

Las, l’accueil ne s’est pas révélé aussi favorable qu’escompté, comme en témoigne une discussion, initiée quelques jours après l’annonce, au titre en forme de pétition : « Allow us to block Copilot-generated issues (and PRs) from our own repositories ». Autrement dit, autorisez-nous à bloquer les problèmes générés par Copilot ainsi que les pull requests associées, directement depuis l’interface de gestion d’un dépôt.

Perte de temps et atteinte aux valeurs personnelles

Mcclure, qui signe cet appel, explique voir dans cette génération automatisée une perte de temps doublée d’une atteinte ses valeurs quant à la pratique du code. « Filtrer ces problèmes/PR générés par IA représentera un fardeau supplémentaire pour moi en tant que mainteneuse, gaspillant non seulement mon temps, mais aussi celui des personnes ayant soumis les problèmes (qui ont généré du contenu IA auquel je ne répondrai pas), ainsi que du temps de votre serveur (qui a dû préparer une réponse à laquelle je ne donnerai pas suite) ».

Le message a été « upvoté » (approuvé et soutenu afin de lui donner de la visibilité) près de 1 300 fois. La conversation qui suit confirme que l’idée d’une assistance IA pour la création de tickets est loin de faire consensus. « Les propriétaires de dépôts doivent avoir le contrôle sur le moment et l’endroit où l’IA est utilisée dans le dépôt », résume l’un des participants.

Dix jours plus tard, un commentateur constate que la fonctionnalité décriée a disparu de l’interface sans crier gare. « Il se peut qu’elle ait disparu, temporairement. Elle reviendra d’une façon ou d’une autre, c’est garanti », lui répond un autre participant.

GitHub n’a pour l’instant ni réagi, ni commenté. Après tout, cette intégration était présentée comme une préversion publique, sujette à modification. En revanche, l’entreprise a annoncé le 29 mai le lancement, en early preview, d’une fonctionnalité baptisée Copilot Spaces, qui doit permettre aux gestionnaires de projets de centraliser tous les éléments de contexte susceptibles de servir à améliorer la qualité des réponses fournies par Copilot.

  •  

Meta veut maitriser toute la chaine publicitaire en remplaçant les créateurs par de l’IA

99 cents
Meta veut maitriser toute la chaine publicitaire en remplaçant les créateurs par de l’IA

Non contente d’être, derrière Google, une des plus grosses régies publicitaires sur internet avec Meta Ads, l’entreprise de Mark Zuckerberg ambitionne de s’attaquer à un autre maillon de la chaine publicitaire : la création. Meta projette de proposer des outils, utilisant l’IA générative, qui permettent aux marques de créer leurs publicités du début à la fin.

Meta devrait proposer, d’ici la fin de l’année, des outils permettant aux entreprises de créer des publicités et de cibler les personnes auxquelles elles s’adressent, grâce à ses outils d’intelligence artificielle.

Si Meta Ads, la plateforme publicitaire de Meta, commence déjà à proposer de l’A/B testing en générant des variantes de publicités existantes, l’entreprise pense pouvoir proposer aux marques la possibilité de monter des concepts publicitaires de A à Z, expliquent plusieurs sources du Wall Street Journal.

Mark Zuckerberg l’évoquait déjà le mois dernier dans le podcast de Ben Thompson Stratechery. Pour lui, l’une des opportunités qu’apporte l’IA est d ‘ « optimiser le secteur de la publicité ». Le CEO de Meta affirmait que son entreprise maitrisait désormais complètement le profilage des potentiels clients.

L’objectif de Mark Zuckerberg : maitriser la chaine publicitaire

« Mais il reste toujours la partie créative », avait-il ajouté. « C’est-à-dire que les entreprises viennent nous voir et ont une idée de leur message, de leur vidéo ou de leur image, et c’est assez difficile à produire, mais je pense que nous en sommes assez proches », en référence à ses outils d’IA générative.

Dans ce podcast, Mark Zuckerberg exprimait clairement sa volonté de maitriser toute la chaine publicitaire : « Nous allons arriver à un point où vous êtes une entreprise, vous venez nous voir, vous nous dites votre objectif, vous vous connectez à votre compte bancaire, vous n’avez besoin d’aucune création, vous n’avez besoin d’aucun ciblage démographique, vous n’avez besoin d’aucune mesure, vous avez juste besoin de lire les résultats que nous produisons ». Et d’ajouter : « Je pense que cela va être énorme, je pense qu’il s’agit d’une redéfinition de la catégorie de la publicité ».

Ciblage et adaptation de la publicité à la cible

Selon le Wall Street Journal, le projet de Mark Zuckerberg est bien en route. Les outils boostés à l’IA que Meta développe doivent permettre à une marque d’obtenir une pub finalisée comprenant image, vidéo et texte. Tout ça en ne donnant au système qu’une image du produit et son objectif budgétaire. L’outil de Meta déciderait quelles personnes viser, en proposant bien sûr de cibler des utilisateurs de ses réseaux sociaux Facebook et Instagram.

L’entreprise prévoit même de pouvoir modifier les rendus des publicités en fonction des données qu’elle possède sur les utilisateurs cibles. « Une personne qui voit une publicité pour une voiture dans un endroit enneigé, par exemple, peut voir la voiture en train de gravir une montagne, alors qu’une personne qui voit une publicité pour la même voiture dans une zone urbaine la verra rouler dans une rue », explique le Wall Street Journal.

Quelles entreprises visées ?

Il est pour l’instant difficile de juger de l’efficacité de ces outils tant qu’ils ne sont pas disponibles. Meta, comme toutes les autres entreprises d’IA générative, n’a pas résolu le problème des « hallucinations » des modèles. Et, si un utilisateur lambda peut passer outre lorsqu’il fait de petites vidéos personnelles pour les réseaux sociaux, ce peut être plus gênant pour la publicité d’une entreprise.

« La sécurité des marques est encore une question importante, c’est pourquoi les laisser faire et optimiser la création est un concept effrayant », affirmait le CEO d’une agence de publicité, interrogé par The Verge suite aux déclarations de Mark Zuckerberg.

Le Wall Street Journal, de son côté, évoque plutôt « une aubaine pour les petites et moyennes entreprises, qui représentent la plupart des annonceurs sur les plateformes de Meta et n’ont souvent pas de gros budgets pour la création de publicités ». Mais les sources du journal précisent que les outils développés par Meta demandent énormément de puissance, voire des modèles spécifiques à chaque marque.

Une autre question reste en suspens : en se donnant la possibilité de maitriser toute la chaine publicitaire, Meta ne risque-t-elle pas d’attirer l’œil des autorités de régulation ?

  •  

Les crawlers des IA menacent les sites scientifiques

Oups
Les crawlers des IA menacent les sites scientifiques

Les bots des entreprises d’IA qui parcourent le web en permanence augmentent la fréquentation des sites de manière vertigineuse. Si tout type de sites est touché, les bases de données ouvertes et les revues scientifiques le sont particulièrement. Le blocage de ces bots n’est pas simple, mais CloudFlare a esquissé récemment une solution.

Les bots des entreprises d’IA continuent, plus que jamais, à parcourir le web en permanence à la recherche d’information à récolter pour entrainer de nouveaux modèles mais aussi pour répondre en direct aux questions de leurs utilisateurs. En avril, Wikimédia alertait sur le sujet.

D’autres sites, moins connus mais avec des contenus tout aussi prisés, en font les frais : ceux qui hébergent des données et des articles scientifiques. Alors que les données de la recherche sont déjà menacées par l’administration Trump, les sites qui les hébergent doivent supporter un nombre important de connexions venant de ces bots.

Des contenus de haute qualité facilement accessibles

En effet, ces sites de revues sont réputés pour la qualité de leurs contenus qui sont, par définition, à la pointe de la connaissance scientifique. De même, les bases de données scientifiques sont des mines d’or de contenus. Elles rassemblent des informations agrégées par des experts d’un sujet, et souvent un tri et des métadonnées précises. Les chercheurs ont, de plus, récemment fait d’énormes efforts en ce qui concerne l’open access. Plus besoin de passer par un paywall ou même un compte pour accéder aux contenus ou aux données scientifiques. Bref, le rêve pour quelqu’un qui veut entrainer un modèle d’IA.

La revue Nature explique, par exemple, que DiscoverLife reçoit actuellement des millions de visites par jour. Jusqu’à récemment, cette base de données qui contient près de 3 millions de photos d’espèces d’animaux et de végétaux n’avaient aucun problème de trafic. Mais depuis le début de cette année, ça devient de plus en plus compliqué. « En février, environ dix millions de visites quotidiennes de robots sur DiscoverLife ont ralenti le site, interrompant de fait l’accès des humains », expliquaient récemment les responsables du site.

De même, en mars, Ian Mulvany, le CTO du British Medical Journal (BMJ, une des revues les plus connues dans le domaine) écrivait que « le problème est réel » et citait une des personnes de son équipe : « malheureusement, le trafic de robots sur les sites web de nos journaux a maintenant dépassé le trafic des utilisateurs réels. Ces robots agressifs tentent de parcourir des sites web entiers en peu de temps, ce qui surcharge nos serveurs web et a un impact négatif sur l’expérience des utilisateurs légitimes. (…) Plus de 100 millions de requêtes de robots proviennent de centres de données de Hong Kong et de Singapour au cours des trois dernières semaines ».

Auprès de Nature, le responsable de l’hébergeur de revues scientifique Highwire Press, Jes Kainth, témoigne aussi d’ « une augmentation considérable de ce qu’ [ils appellent] le trafic des « mauvais robots » ». Le géant de l’édition scientifique Wiley a aussi jugé bon de prendre position sur « le scraping illégal » mis en place par les développeurs d’IA. Ici, l’éditeur met plutôt en avant les problèmes de Copyright.

Un blocage par IP peu efficace

« Nous bloquons désormais plus de 190 millions d’adresses IP signalées par mois, mais les tentatives d’autres robots pour visiter le site restent une menace existentielle pour la plateforme », expliquaient le 20 mai dernier les responsables de DiscoverLife. Et effectivement, la course folle au blocage des blocs d’IP semble être la solution la plus simple et rapide à mettre en place.

Dans son billet de mars, Ian Mulvany expliquait que l’hébergeur de BMJ utilisait les services de blocage de bots de Cloudflare. Il remarquait cependant un problème : « lorsque le blocage du trafic de robots a été activé, il semblait que Cloudflare adoptait une approche large et bloquait presque tout ce qui ressemble à une communication de machine à machine ». Notamment, étaient bloquées l’utilisation des API mis en place ainsi que les méthodes d’authentification par lots d’IP. Plutôt problématique quand une bonne partie des utilisateurs sont des chercheurs dont l’autorisation d’accès est donnée par ce genre de méthodes et qui ont besoin d’accéder aux données sans forcément passer par le web.

Cloudflare propose une authentification des bots

Cloudflare et d’autres ont, depuis, mis en place des systèmes de labyrinthe pour bloquer les bots d’IA. Nous en parlions en avril. Mais, mi-mai, l’entreprise confirmait dans un billet de blog que « les mécanismes actuels de vérification des robots sont cassés ». Cloudflare pousse pour une autre approche : la signature de message HTTP. Stéphane Bortzmeyer détaille dans un billet de blog le fonctionnement de cette signature.

Cloudflare ajoute travailler « en étroite collaboration avec l’ensemble de l’industrie pour soutenir ces approches fondées sur des normes » et donne l’exemple d’OpenAI qui a commencé à signer ses demandes avec des signatures de message HTTP. L’entreprise creuse aussi d’autres pistes : « le protocole HTTP n’est pas le seul moyen de transmettre des signatures. Par exemple, un mécanisme qui a été utilisé dans le passé pour authentifier le trafic automatisé contre des points finaux sécurisés est mTLS, la présentation « mutuelle » des certificats TLS ».

L’entreprise pense que ces deux voies sont « des mécanismes prometteurs permettant aux propriétaires de robots et aux développeurs d’agents d’intelligence artificielle de s’authentifier de manière infalsifiable ». L’un de ces systèmes devrait, selon Cloudflare, permettre de remplacer les listes interminables de plages d’adresses IP et la vérification par User-Agent qui sont facilement falsifiables. Reste à voir si l’industrie de l’IA générative, qui jusque-là s’accommode bien de pouvoir moissonner le web sans demander d’autorisation, adoptera massivement ce genre de solutions.

  •  

Murena lance son système mobile open source et dégooglisé /e/OS 3.0

Une affaire à suivre
Murena lance son système mobile open source et dégooglisé /e/OS 3.0

Fondée par Gaël Duval, la société française Murena vient de lancer la troisième version majeure de son système d’exploitation mobile /e/OS. Les nouveautés sont nombreuses et dans la lignée des améliorations dont nous avait parlé le fondateur en février : un renforcement des protections de la vie privée, des services et de la collaboration.

/e/OS est un système d’exploitation mobile basé sur la ROM LineageOS. Ce dernier, successeur de CyanogenMod, est un système de remplacement pour Android, dont il reprend la base via AOSP (Android Open Source Project). /e/OS se veut donc un système débarrassé de tout service Google et conçu pour préserver autant que possible la vie privée de ses utilisateurs. Il peut être installé sur des téléphones existants ou obtenu via un téléphone commercialisé par Murena, y compris des Pixel reconditionnés et le Fairphone 5.

Le système n’est pas une simple reprise de LineageOS. Sa « dégooglisation » est plus prononcée et il intègre par défaut microG, une alternative open source aux Google Play Services. De nombreux petits changements ont été opérés çà et là, par exemple pour la synchronisation de l’heure et les DNS, toujours dans l’optique de préserver la vie privée. /e/OS a également son propre launcher, baptisé Bliss, et est intégré avec un éventail de services, Murena Cloud.

La nouvelle mouture du système prend directement la suite des précédentes et vient appuyer sur les points forts déjà en place. Mais elle vient surtout répondre à plusieurs faiblesses, même si toutes les nouveautés ne sont pas encore détaillées. Une conférence de présentation commence d’ailleurs immédiatement et peut être suivie sur YouTube, Peer.tube et même Telegram.

Les nouveautés majeures de /e/OS 3.0

Cette troisième version majeure est d’abord une modernisation de toute la base. Elle reprend (a priori) les apports d’Android 14 et devrait permettre à bon nombre d’appareils d’être mis à jour vers la nouvelle version. On ne sait pas en revanche quand les processus de migration seront mis en place.

/e/OS 3.0 renforce également sa protection de la vie privée. Le système offre ainsi un aperçu de la manière dont les informations sont traitées. Il génère des rapports hebdomadaires avec des informations détaillées sur les « apps invasives » et les traqueurs. Ces rapports fournissent en outre un score de confidentialité globale et pointent les fauteurs de troubles. Les utilisateurs peuvent partager ces informations sur les réseaux sociaux, même si beaucoup ont un fonctionnement contraire aux valeurs portées par Murena. Il est aussi possible de personnaliser l’accès à la position géographique pour les applications, en distinguant celles utilisant la vraie position de celles servies par une localisation factice.

La nouvelle version apporte aussi une fonction Vault pour l’espace de stockage. Il s’agit d’un coffre-fort dont le contenu est chiffré de bout en bout, basé sur CryptPad. Point important, ce service est compatible avec l’ensemble des fichiers à stocker, y compris les documents faisant l’objet d’un travail collaboratif.

Cet ajout, pour l’instant en bêta, prend place dans le bouquet Murena Workspace et nécessite donc un compte Murena. La version de base, comprenant 1 Go, est gratuite. Les tarifs vont ensuite de 1,99 euro par mois pour 20 Go à 24,99 euros par mois pour 2 To.  Les abonnés payants reçoivent d’ailleurs une autre fonction : la dictée vocale, que Murena garantit « en toute confidentialité ».

Mode tablette et contrôle parental

L’un des plus gros apports de /e/OS 3.0 reste le mode tablette. Le système pouvait déjà être installé sur des tablettes (certaines sont d’ailleurs vendues sur la boutique officielle), sans disposer d’un affichage réellement adapté. C’est désormais le cas.

Le système renforce aussi son contrôle parental en lui apportant plusieurs fonctions importantes. On peut choisir la tranche d’âge des enfants et obtenir des réglages par défaut. Surtout, les applications restreintes peuvent désormais réclamer le code parental pour être installées. De plus, les parents peuvent généraliser l’utilisation du code à l’ensemble des installations, pour s’assurer que leurs enfants n’installent rien d’autre que ce qui est déjà en place.

On note enfin deux autres nouveautés. D’abord, la possibilité de retrouver son téléphone perdu via une fonction de recherche par SMS. Nous n’avons pour l’instant pas de détails sur le fonctionnement de cette fonction. Ensuite, la bascule du moteur de recherche par défaut sur Qwant, qui repose en partie sur Bing.

Il manque pour l’instant des informations importantes sur le nouveau système, notamment la version d’Android utilisée, la compatibilité matérielle, le fonctionnement de la recherche d’appareil ou encore de la dictée vocale. Nous mettrons à jour cette actualité lorsque nous aurons les réponses.

  •  

☕️ Climat : les satellites, outils de vérification des émissions du secteur privé ?

Les gouvernements devraient recourir aux données collectées par les satellites pour vérifier l’exactitude des données fournies par les sociétés privées en matière d’émission de gaz à effet de serre, estime une équipe de chercheuses et chercheurs du King’s College de Londres.

Si les entreprises – y compris celles de l’industrie technologique – ont pris l’habitude ces dernières années de diffuser des données relatives à leurs émissions, les scientifiques constatent que la majorité a diffusé des chiffres plus faibles que dans la réalité. En septembre 2024, the Guardian relevait par exemple que les émissions des data centers étaient probablement 662 % plus élevées que ce qu’affirmaient leurs opérateurs.

La planète Terre vue d'un satellite
Photo de Louis Reed sur Unsplash

L’équipe du King’s College a comparé les informations publiées par 279 sociétés privées et celles effectivement constatées en recourant à Climate Trace, un projet en accès libre qui utilise les données de plus de 300 satellites et de milliers de capteurs pour estimer les émissions de dioxyde de carbone et de méthane de sites individuels. 


75 entreprises, en particulier des entités états-uniennes actives dans les domaines du gaz et du pétrole, rapportent des chiffres équivalents au tiers de leurs émissions relevées grâce à Climate Trace – sachant que l’initiative elle-même pourrait ne pas rendre compte de l’intégralité des émissions produites.

Des résultats proches de ceux constatés par une équipe de Stanford, qui relevait des émissions de méthane trois fois supérieures sur les sites pétroliers et gaziers à ceux estimés par le gouvernement des États-Unis.

Le méthane est particulièrement suivi dans la mesure où, sur une période de vingt ans, son effet de réchauffement est 80 fois supérieur à celui du dioxyde de carbone, souligne le Financial Times.

Et si les technologies actuelles permettent de détecter les niveaux de méthane dans l’atmosphère, elles manquent de précision pour le dioxyde de carbone.


C’est la raison pour laquelle l’équipe de scientifiques, menée par Marc Lepere, enjoint les régulateurs à s’inspirer d’initiatives comme Climate Trace, qui utilisent d’autres indicateurs, dont la chaleur émise par une usine, pour estimer les émissions de dioxyde de carbone. 
En la matière, les données collectées par les satellites seraient à même de fournir des estimations plus précises que celles actuellement proposées par les entreprises elles-mêmes.

Si le gouvernement des États-Unis est en train de réduire toute obligation de diffusion des émissions de gaz à effet de serre dans le secteur privé, la Commission européenne étudie de son côté des manières d’améliorer les processus de reporting environnementaux des entreprises.

  •  

Face au DMA, Microsoft joue les bons élèves sur Edge et Windows

Un bon point
Face au DMA, Microsoft joue les bons élèves sur Edge et Windows

Microsoft avait déjà proposé une série d’améliorations pour son système d’exploitation afin de répondre aux exigences du DMA en Europe. Mais là où Apple freine des quatre fers, Microsoft joue la carte de l’élève modèle. L’entreprise vient même d’annoncer une nouvelle série de modifications, notamment pour son navigateur Edge.

En mars 2024, Microsoft avait présenté des changements dans Windows pour se mettre en conformité avec le DMA. Windows ayant été nommé contrôleur d’accès, il fallait en effet respecter les règles permettant une libre concurrence. Ce qui revenait à modifier certains comportements pour se montrer plus souple sur divers points.

Ces mesures comprenaient par exemple la possibilité de désinstaller le navigateur Edge et OneDrive, la capacité d’intégrer d’autres services de recherche au sein du système, l’ouverture à d’autres sources d’actualité pour les widgets, l’absence de connexion automatique aux autres services Microsoft lorsqu’on lie le compte à la session Windows, des demandes de consentement plus claires sur l’utilisation des données ou encore des modifications pour LinkedIn.

Hier soir, l’éditeur a cependant publié une nouvelle liste de modifications que l’on n’attendait pas. Certaines sont particulièrement bienvenues.

Navigateur par défaut : des changements plus simples

Windows 10 et 11 ont fait pester les éditeurs tiers de navigateurs. Le système mis en place pour modifier l’application par défaut est moins évident que dans les versions précédentes du système. Les étapes sont plus nombreuses et le changement doit être fait plusieurs fois selon les types de fichiers souhaités. La manipulation n’est donc pas simple pour les personnes ayant peu de connaissances informatiques.

Dans son billet, Microsoft indique que le bouton « Définir par défaut » associe actuellement http, https, .htm et .html avec le navigateur. Dans une future mise à jour de Windows, les liens ftp et read seront ajoutés, de même que les fichiers .mht, .mhtml, .shtml, .svg, .xht, .xhtml et .xml par défaut.

En outre, le même bouton provoquera l’épinglage du navigateur dans la barre des tâches et dans le menu Démarrer, à moins que l’utilisateur refuse ce comportement par une case à cocher. Enfin, un bouton séparé permettra de déclarer le navigateur par défaut comme visionneuse PDF, si l’application possède cette capacité.

Ces changements sont déjà présents dans la dernière bêta de Windows 11. Ils seront déployés dans les versions finales de Windows 10 et 11 le mois prochain.

Edge se fait plus discret

Autre changement, l’utilisation de Bing dans Windows Search ouvre désormais les liens des résultats dans le navigateur par défaut, et non dans Edge. Cette modification, assez attendue, est en cours de déploiement. Et comme on s’en doute, ce même changement s’applique aux widgets et aux éléments affichés sur l’écran verrouillé. Il s’agissait de l’un des plus gros reproches faits à Microsoft après les premiers changements annoncés pour le DMA.

Autre comportement pénible corrigé : Edge ne demandera plus sans arrêt à redevenir le navigateur par défaut. Ce changement est en fait déjà effectif. Il a été déployé le 29 mai dans la version 137.0.3296.52. Seule l’ouverture directe d’Edge affichera la question, comme pour les autres navigateurs.

Conséquence, les autres applications Microsoft ne demanderont plus qu’Edge soit réinstallé ou à nouveau utilisé comme navigateur par défaut. Selon l’éditeur, la plupart des applications ont déjà été modifiées en ce sens, les dernières devant être mises à jour avant la fin du mois. Seule exception, les applications web (PWA) présentes sur le Microsoft Store et bâties pour utiliser Edge.

Le Microsoft Store peut être supprimé

Enfin, le Microsoft Store pourra lui aussi être désinstallé. Cette modification sera répercutée « dans le courant de l’année », sans plus de précisions pour l’instant.

Rappelons que la quasi-totalité des applications intégrées de Windows 11 peuvent être désinstallées. Même si on aimerait que l’installation du système ait un mode minimal, la suppression des applications est simple. On peut le faire depuis les Paramètres, mais un clic droit sur une application dans le menu Démarrer suffit.

  •  

☕️ Spotify révise à la hausse le prix de ses abonnements

À l’instar de ses homologues et concurrents dans le domaine de la musique ou de la vidéo en ligne, Spotify révise régulièrement ses tarifs à la hausse. Après des augmentations survenues en 2023 et en 2024, le service a une nouvelle fois mis à jour sa politique tarifaire.

Le forfait Personnel, limité à un utilisateur, est désormais facturé 12,14 euros par mois (contre 11,12 euros précédemment, soit + 9,17 %). La formule Étudiants passe quant à elle de 6,06 à 7,07 euros par mois.

Le forfait Duo (deux comptes Premium logés à la même adresse) voit son prix passer de 15,17 à 17,20 euros. Enfin, la formule Famille (jusqu’à 6 comptes Premium ou Spotify Kids) enregistre une hausse significative (+ 16,64 %). Celle-ci amène son tarif au-delà de la barre symbolique des 20 euros, à 21,24 euros par mois.

« Alors que nous continuons à développer notre plateforme, nous mettons à jour nos prix, afin de pouvoir continuer à innover dans des conditions de marché changeantes. Grâce à ces mises à jour, nous apporterons toujours de la valeur aux fans », justifie de façon générique le service.

La nouvelle grille tarifaire de Spotify est entrée en vigueur début juin 2025

S’il n’a pas communiqué spécifiquement sur cette hausse de prix appliquée aux clients français, Spotify a récemment livré quelques chiffres censés illustrer sa contribution à l’économie de la création musicale en Europe.

Le service, qui annonce avoir franchi la barre des 100 millions d’abonnés payants sur le Vieux continent, affirme que les artistes européens référencés sur sa plateforme ont enregistré, par son intermédiaire, quelque 352 milliards d’écoutes de la part d’internautes européens en 2024. Plus de 17 000 de ces artistes européens auraient ainsi généré des revenus supérieurs à 10 000 euros sur l’année, et ils seraient plus de 27 000 à avoir dégagé au moins 5 000 euros grâce à ces écoutes.

« Près de 44 % de toutes les redevances générées dans l’UE proviennent d’artistes européens, soit le pourcentage le plus élevé depuis que nous avons commencé le suivi en 2017. Et, étape majeure pour la diversité linguistique, 57 % des redevances ont été versées à des artistes se produisant dans des langues autres que l’anglais », revendique Spotify, dont la politique de redistribution fait néanmoins l’objet de critiques accentuées par l’essor de l’IA générative.

  •  

Microsoft tente de fédérer autour de sa taxonomie des menaces cyber

Ta peur tu dois nommer
Microsoft tente de fédérer autour de sa taxonomie des menaces cyber

Microsoft et CrowdStrike utiliseront désormais une taxonomie commune pour désigner les groupes organisés auteurs de menaces ou d’attaques cyber, en fonction de leur origine géographique ou de leur motivation principale. S’il se défend de vouloir créer un standard, l’éditeur ne cache pas son ambition de fédérer les acteurs de la cybersécurité autour de ses conventions de nommage.

L’entreprise de cybersécurité CrowdStrike identifiera désormais, elle aussi, les menaces émergentes avec des termes inspirés des sciences du climat, à l’image de « tempête de moutarde » ou « typhon de mûres blanches ». Elle vient en effet d’adopter la taxonomie dédiée aux menaces cyber élaborée et utilisée par Microsoft depuis 2023. L’éditeur de Windows indique dans le même temps que Mandiant (Google) et Unit 42 (Palo Alto Networks) contribueront bientôt à cet effort de classification.

Un standard ? Non, un guide de référence

« Les noms nous permettent de comprendre le paysage des menaces et d’organiser les informations sur les comportements connus ou probables des cyberattaquants », explique Microsoft dans un billet d’annonce. Problème : une taxonomie ne vaut que si elle est partagée. Or les acteurs de la cybersécurité ont souvent leurs propres nomenclatures internes, ce qui conduit à ce qu’un même groupe, ou une même menace, soit identifiée sous des appellations différentes, en fonction de l’éditeur dont émane l’alerte.

« L’acteur que Microsoft appelle Midnight Blizzard peut être référencé comme Cozy Bear, APT29, ou UNC2452 par un autre éditeur. Nos clients communs recherchent toujours plus de clarté », argue encore la firme de Redmond, qui se défend de vouloir imposer sa propre taxonomie au marché et préfère parler de « guide de référence » plutôt que de standard. « Cet effort ne vise pas à créer une norme de nommage unique. Il vise plutôt à aider nos clients et la communauté de la sécurité au sens large à harmoniser leurs renseignements plus facilement, à réagir plus rapidement et à garder une longueur d’avance sur les acteurs malveillants ».

Une taxonomie inspirée du climat

Microsoft profite de l’occasion pour mettre à jour sa taxonomie et en expliquer les grands principes. Les émetteurs de menaces cyber sont ainsi rangés selon cinq grandes familles, en fonction de leur origine géographique, de leur mode opératoire, ou d’éventuels objectifs spécifiques.

L’éditeur distingue ainsi en premier lieu les acteurs « nationaux », dont la finalité serait de répondre à des enjeux d’État, notamment en matière d’espionnage ou de surveillance. Dix-sept pays ou autorités étatiques sont distinguées à l’aide d’un nom en rapport avec un phénomène météorologique. Typhoon désigne la Chine, Sandstorm l’Iran, Blizzard la Russie, etc. La France ne fait l’objet d’aucune dénomination particulière, mais les États-Unis sont référencés comme Tornado.

La taxonomie de Microsoft distingue les acteurs de la menace en fonction de leur origine géographique ou de la finalité de leurs actions

Les acteurs ou organisations motivés uniquement par l’appât du gain sont quant à eux rangés dans une catégorie spécifique, associée au nom Tempest. « Cette catégorie comprend les opérateurs de ransomware, les compromissions de mails professionnels, le phishing et d’autres groupes ayant des motivations purement financières ou d’extorsion », décrit l’éditeur.

Microsoft isole les fournisseurs de solutions, ceux qui éditent les outils d’espionnage, de surveillance ou d’offensive cyber, dans une autre catégorie spécifique, baptisée Tsunami. Les groupes chargés de mener des campagnes d’influence ou de manipulation en ligne sont quant à eux rangés à la rubrique Flood (inondation).

« Les acteurs au sein d’une même famille météorologique reçoivent un adjectif pour distinguer les groupes avec des tactiques, techniques et procédures (TTP), une infrastructure, des objectifs ou d’autres modèles identifiés distincts », explique Microsoft. Dans sa taxonomie, un même nom peut donc désigner plusieurs groupes d’attaquants distincts, si ces derniers partagent des objectifs et des méthodes communs. Ainsi, l’éditeur référence sous l’étiquette Diamond Sleet le groupe nord-coréen Lazarus, dont le nom revient régulièrement dans l’actualité cyber, mais aussi toutes ses émanations ou structures voisines.

Enfin, les groupes émergents, dont les objectifs ou la finalité n’ont pas encore été établis, reçoivent une étiquette générique, Storm (orage), associée à un identifiant à quatre chiffres.

  •  

☕️ L’assistant d’écriture Grammarly lève 1 milliard de dollars

Fondé en 2009 par les Ukrainiens Alex Shevchenko, Max Lytvyn et Dmytro Lide, l’outil d’aide à la rédaction en anglais Grammarly lève un milliard de dollars auprès du fonds General Catalyst, au capital de la société depuis 2017.

Initialement pensé pour aider des salariés à écrire sans fautes d’orthographe, Grammarly a fait muter son outil en assistant d’écriture à part entière, avec suggestion de formulations ou de coupes pour produire des textes plus fluides.

Un ordinateur, un téléphone, un bloc-note et une tasse pleine de café sont posés sur une table.

Installée en Californie, la société revendique 50 000 clients et 40 millions d’utilisateurs. Avec un chiffre d’affaires annuel de plus de 700 millions de dollars, elle est rentable, souligne Les Échos, mais désormais concurrencée par les outils génératifs comme ChatGPT, Claude ou Gemini.

Avec les fonds obtenus, Grammarly prévoit de diversifier ses produits appuyés sur des technologies d’IA, donc ses revenus. L’entreprise a notamment racheté la plateforme de productivité Coda en décembre.

  •  

DMA : Apple ne veut rien savoir et fait appel de sa condamnation

iCassandre
DMA : Apple ne veut rien savoir et fait appel de sa condamnation

Les rapports entre Apple et la Commission européenne ne sont pas près de se détendre. Apple refuse les demandes d’ouverture exigées par l’Europe dans le cadre du DMA et refuse de payer son amende de 500 millions d’euros. Pour l’entreprise, ces changements seraient une catastrophe pour la sécurité.

Apple a fait appel de sa condamnation pour ses multiples infractions au DMA, rapporte Axios. En avril, l’entreprise a en effet été condamnée à 500 millions d’euros d’amende, notamment pour ses pratiques anti-steering. Les mêmes qui ont entrainé la victoire d’Epic outre-Atlantique.

Des demandes répétées d’ouverture

Dans le cadre du DMA, l’Europe a demandé à Apple de se conformer à d’autres exigences, dont l’ouverture de certaines technologies. Ces points avaient été détaillés par la Commission européenne, qui souhaitait qu’Apple ouvre ses notifications aux montres connectées, l’exécution en tâche de fond de certaines tâches, la bascule audio automatique ou encore les transmissions sans fil à courte distance, laissant la possibilité de créer des alternatives à Airdrop.

L’accès aux notifications et aux réseaux Wi-Fi permettrait notamment aux autres montres connectées que l’Apple Watch d’interagir avec l’iPhone sans nécessiter d’actions particulières et de transférer rapidement des lots importants de données. La concurrence réclame, en somme, que ses montres puissent fonctionner avec le même niveau d’intégration que celle d’Apple.

Une question de sécurité, selon Apple

Mais Apple ne veut rien savoir. Selon un porte-parole, ce serait une question de sécurité et de vie privée. « Ces exigences permettront également aux entreprises avides de données d’obtenir des informations sensibles, ce qui pose des risques considérables en matière de confidentialité et de sécurité pour nos utilisateurs de l’UE », affirme Apple.

L’accès aux notifications et aux réseaux Wi-Fi donnerait aux entreprises « la possibilité d’accéder à des informations personnelles que même Apple ne voit pas », a assuré le porte-parole. Les exigences de l’Union en matière d’interopérabilité créeraient « un processus déraisonnable, coûteux et qui étouffe l’innovation ».

« En fin de compte, ces règles profondément erronées qui ne visent qu’Apple – et aucune autre entreprise – limiteront considérablement notre capacité à fournir des produits et des fonctionnalités innovants en Europe, ce qui se traduira par une expérience utilisateur de qualité inférieure pour nos clients européens », a enfin déclaré Apple.

Le DMA et le DSA au cœur des tensions

Son point de vue sur le DMA n’est pas nouveau. Depuis plus d’un an, l’entreprise a plusieurs fois communiqué sur le nouveau cadre européen et ses obligations en tant que gatekeeper (ou contrôleur d’accès). En mars 2024, Apple a notamment publié un argumentaire détaillé sur la baisse générale de sécurité qu’entrainerait le DMA pour les iPhone, qui resteraient néanmoins les smartphones les plus sécurisés du marché.

Si les tensions entre Apple et la Commission européenne sont connues, le débat a pris un tour plus politique depuis les élections américaines. Le retour de Donald Trump à la Maison-Blanche a créé des étincelles avec l’Europe, les grandes entreprises de la tech s’étant largement plaintes de ses régulations au président des États-Unis. Donald Trump avait fait valoir que le DMA et le DSA seraient examinés et que seules des lois américaines devaient régir les entreprises américaines.

  •  

☕️ Google corrige en urgence une faille critique déjà exploitée dans Chrome

Google a publié une nouvelle version de Chrome dans le canal stable pour corriger trois failles de sécurité, dont une déjà exploitée. Une situation urgente qui a justifié la diffusion de cette version, en dehors du cycle habituel des mises à jour.

La faille CVE-2025-5419 a été signalée par deux chercheurs du Threat Analysis Group de Google, Clément Lecigne et Benoît Sevens. Son score de sévérité est de 8,8 et elle est donc considérée comme critique. On ne connait pas exactement son mécanisme d’action, mais on sait qu’il s’agit d’une vulnérabilité de lecture et d’écriture hors limites dans le moteur JavaScript et WebAssembly V8. Une corruption du tas qui peut être exploitée par une page web HTML.

L’entreprise indique être « consciente qu’un exploit pour CVE-2025-5419 existe dans la nature ». Il est donc recommandé d’installer la nouvelle mouture aussi rapidement que possible, la brèche pouvant être exploitée à distance. Tous les navigateurs basés sur Chromium sont concernés, Microsoft ayant par exemple déjà répercuté la correction dans Edge.

Vitrée brisée
  •  

Vie privée, effets sur les jeunes, violences : Meta va remplacer l’évaluation humaine par l’IA

IA moins de gène
Vie privée, effets sur les jeunes, violences : Meta va remplacer l’évaluation humaine par l’IA

Meta prévoit de confier jusqu’à 90 % des évaluations des risques de ses nouveaux produits à des IA. L’entreprise avait, progressivement, été poussée à mettre en place des équipes d’évaluation de ses nouveaux produits pour atténuer leurs conséquences négatives avant leur mise en place sur le marché.

Les produits de Meta ne sont pas exempts de risques pour leurs utilisateurs, loin s’en faut, que ce soit de problèmes liés à la désinformation, à l’utilisation de données privées ou l’exposition des jeunes à des contenus problématiques. Mais l’entreprise a été poussée par certaines instances de régulation comme la Federal Trade Commission à mettre en place quelques garde-fous.

Le scandale Cambridge Analytica a aussi eu un petit effet. À l’époque, l’entreprise avait étendu son programme de recherche de bugs (bug bounty) aux utilisations frauduleuses de données par des applications tierces, par exemple.

De même, dès 2019, l’entreprise a mis en place une « red team » spécialisée sur l’IA, racontait Forbes. En 2023, pour la sortie de Llama 2, les chercheurs de Meta expliquaient avoir travaillé avec 350 personnes pour atténuer les risques, « y compris des experts en cybersécurité, fraude électorale, désinformation dans les médias sociaux, droit, politique, droits civils, éthique, génie logiciel, apprentissage automatique, IA responsable et création littéraire », précisaient-ils.

Automatisation de 90 % des évaluations de risques

L’entreprise prévoirait désormais d’automatiser jusqu’à 90 % des évaluations de risques, selon des documents internes obtenus par le média public américain NPR.

Selon nos confrères, les modifications des algorithmes des différents réseaux sociaux de Meta, les nouveaux dispositifs de sécurité ou les éventuels changements de règles de partages des contenus sur les plateformes de l’entreprise seront approuvés par des systèmes automatisés utilisant de l’intelligence artificielle et ne seront plus débattus en interne par une équipe dédiée.

Dans l’entreprise, ce changement serait vu comme une victoire des responsables produits qui pourront lancer des nouveautés plus rapidement. « Dans la mesure où ce processus signifie fonctionnellement que davantage de produits sont lancés plus rapidement, avec un examen et une opposition moins rigoureux, cela signifie que vous créez des risques plus élevés », explique cependant un ancien responsable de Meta de manière anonyme.

De son côté, l’entreprise assure à la NPR que « l’expertise humaine » sera toujours utilisée pour les « questions nouvelles et complexes » et que seules les « décisions à faible risque » seraient automatisées. Le média étasunien assure que les documents internes qu’il a consultés évoquent l’automatisation de domaines sensibles comme la sécurité des IA, les risques pour les jeunes, et ce que l’entreprise appelle « intégrité » qui englobe les contenus violents et les fausses informations.

Obligée par le DSA, Meta maintient une équipe en Europe

Selon les documents consultés par la NPR, le processus de validation que Meta met en place passerait dans la plupart des cas par un simple questionnaire sur le projet. Les équipes produits recevront une « décision instantanée » automatisée identifiant les risques et les moyens d’y remédier.

Interrogé par NPR, l’ancien directeur du service « Innovation responsable » de Facebook, Zvika Krieger explique que « la plupart des chefs de produit et des ingénieurs ne sont pas des experts en matière de protection de la vie privée et ce n’est pas l’objet de leur travail. Ce n’est pas ce sur quoi ils sont principalement évalués et ce n’est pas ce qui les incite à donner la priorité à la protection de la vie privée ».

En avril, le prestataire de modération Telus a licencié plus de 2000 personnes à Barcelone après avoir perdu le contrat qui le liait à Meta. Cela dit, selon ses documents internes, l’entreprise de Mark Zuckerberg devrait garder une équipe en Europe (en Irlande, où se situe son siège social pour l’UE) pour prendre des décisions sur le lancement de produits et l’utilisation des données utilisateurs au sein de la zone européenne. Le DSA oblige, en effet, les plateformes à porter une plus grande attention à ces sujets.

  •  

☕️ Donald Trump va remplacer le chef de la Nasa Jared Isaacman, choisi par Elon Musk

Donald Trump a finalement écarté son candidat à la tête de la Nasa, Jared Isaacman, un proche d’Elon Musk. 
Le Président des États-Unis a déclaré vouloir proposer une nouvelle candidature rapidement.

« Après un examen approfondi des associations antérieures, je retire par la présente la nomination de Jared Isaacman à la tête de la Nasa », a-t-il indiqué.

L’astronaute privé et milliardaire Jared Isaacman avait été choisie par Elon Musk, qui a quitté le DOGE (ministère de l’efficacité gouvernementale) et la position stratégique que celui-ci lui offrait au sein de l’administration des États-Unis il y a une semaine à peine. Sur X, ce dernier s’est dit déçu de cette évolution.

Satellite NASA

La Maison-Blanche n’a pas donné d’explications précises sur sa décision. Jared Isaacman avait le soutien de l’industrie, mais sa proximité avec Musk soulevait les inquiétudes des régulateurs, relève the Guardian. Fondateur du système de paiement Shift4, Jared Isaacman avait par ailleurs réalisé des donations au parti démocrate lors de précédentes élections.

Fin mai, l’agence spatiale a publié les détails de la proposition de budget 2026 de l’administration Trump, qui prévoit la suppression de dizaines de programmes scientifiques spatiaux et le licenciement de plusieurs milliers de personnes.

Certains scientifiques estiment que le changement de direction pourrait déstabiliser davantage encore le fonctionnement de la Nasa.

  •  

☕️ Le Royaume-Uni investit plus d’un milliard d’euros dans ses capacités militaires cyber

Le Royaume-Uni vient d’annoncer qu’il allait investir plus d’un milliard de livres sterling (1,19 milliard d’euros) pour équiper ses forces armées d’un système de localisation et d’élimination des cibles ennemies sur le champ de bataille.

Inspiré des leçons tirées de la guerre en Ukraine et tirant parti des avancées en matière d’intelligence artificielle, le projet « Digital Targeting Web » (toile de ciblage numérique) vise, à l’horizon 2027, à mieux relier les systèmes d’armes des forces armées et permettre une prise de décision plus rapide grâce à « une nouvelle IA et de nouveaux logiciels ».

Russian drone shot by the State Border Guard Service of Ukraine
Dpsu.gov.ua, CC BY 4.0, via Wikimedia Commons

Un nouveau Commandement cybernétique et électromagnétique sera également créé afin de diriger les opérations cyber défensives, et de coordonner, avec la National Cyber Force (NCF, une unité interarmées liées au GCHQ), les opérations de lutte informatique offensive (LIO, pour reprendre la terminologie française).

Le nouveau commandement exploitera également l’expertise de toutes les forces armées en matière de guerre électronique, qu’il s’agisse de dégrader et brouiller les signaux transmis aux drones ou aux missiles, ou d’intercepter les communications d’un adversaire.

Ces annonces ont été faites par le secrétaire d’État à la Défense, John Healey, lors d’une visite au QG cyber de l’armée britannique à Corsham dans le Wiltshire, un comté dans le sud-ouest de l’Angleterre.

« Nous donnerons à nos forces armées la capacité d’agir à des vitesses jamais atteintes auparavant, en connectant les navires, les avions, les chars et les opérateurs afin qu’ils puissent partager instantanément des informations vitales et frapper plus loin et plus vite », a-t-il déclaré.

En février, le Royaume-Uni avait également lancé un programme de « Cyber Direct Entry » visant à offrir une voie accélérée vers des fonctions militaires dans le domaine cyber. Les salaires de départ s’élèvent à plus de 40 000 livres sterling (environ 47 000 euros), avec la possibilité de gagner jusqu’à 25 000 livres sterling (près de 30 000 euros) supplémentaires en fonction des compétences.

« Ce montant s’ajoute aux augmentations de salaire liées aux promotions et à l’ancienneté », précise la présentation du programme, qui souligne que « les cyberopérateurs recrutés dans le cadre de ce programme ne seront pas tenus de servir dans des environnements dangereux et ne manipuleront pas d’armes ».

  •  

☕️ Gmail généralise les résumés IA des e-mails

Dans un billet publié le 29 mai, Google a annoncé que les résumés d’e-mails produits par IA sont désormais généralisés. Ce processus, qui s’étale sur environ deux semaines, ne concerne cependant pas tout le monde.

Pour l’instant, cette activation par défaut ne se fait que sur les courriels en anglais, et uniquement pour certaines catégories d’utilisateurs. C’est le cas pour tous les comptes Workspace payants et pour les personnes ayant souscrit un abonnement Google AI Premium, récemment renommée AI Pro. L’entreprise ne dit rien pour l’instant pour les comptes gratuits et les autres langues, mais cette annonce n’est vraisemblablement qu’une étape vers une généralisation complète.

Google ajoute dans son billet que le résumé n’entrera en action que pour les e-mails « pour lesquels un résumé est utile ». La société ne détaille pas ce point, mais on peut le déduire : seuls les courriers d’une certaine taille feront l’objet d’un résumé.

Les résumés eux-mêmes se veulent aussi concis que possible. Il s’agit de simples listes à puces censées représenter les points importants d’un message ou échange. Ces listes sont affichées en haut de l’écran et le cadre correspondant peut être replié pour libérer de la place.

À noter que ces résumés ne peuvent pas être désactivés sans couper l’ensemble des fonctions dites « intelligentes », dont les notifications prioritaires, Smart Compose et Smart Reply, ou encore le suivi de colis. En entreprise, avec les comptes Workspace, la désactivation ne pourra se faire que par l’équipe d’administration.

  •  

☕️ Le Bloc-notes de Windows se dote d’outils pour formater le texte et du Markdown

Si le Bloc-notes a longtemps été une petite application dépouillée pour prendre des notes au format texte brut (fichiers .txt), Microsoft l’a dotée ces dernières années d’un nombre croissant de fonctions. Parmi les principaux ajouts, on remarque par exemple les onglets, la compatibilité avec la correction grammaticale/orthographique ou encore l’enregistrement continu.

Les personnes testant les préversions de Windows dans les canaux Insider Canary et Dev peuvent depuis peu s’essayer à plusieurs nouvelles capacités. D’abord, des outils pour formater le texte. On retrouve des fonctions classiques comme le gras, l’italique, les listes à puces ou numérotées, les niveaux de titre ou encore la possibilité d’insérer des liens. La capture fournie par Microsoft dans son billet d’annonce montre bien les possibilités.

L’autre gros ajout est la compatibilité avec le Markdown. Ce langage permet de décrire, grâce à des balises, le type de formatage que l’on souhaite. Le Markdown est particulièrement utile dans certains domaines, car il permet de produire un texte brut dont les balises seront interprétées par un autre logiciel ou service, pour produire le même résultat partout. Il y a quelques années, nous avions comparé de nombreux outils conçus pour cette activité, comme Simplenote, Typora, Sublime Text ou encore Joplin.

Comme de nombreux éditeurs, le Bloc-notes permet les deux vues : un affichage brut dans lequel les balises apparaissent, et une vue formatée dans laquelle on affiche directement le résultat final. La petite application permet donc de préparer son texte et d’en générer un équivalent Markdown.

Enfin, Microsoft précise que, pour les personnes n’ayant aucun besoin de formatage pour le texte, ces outils peuvent être désactivés dans les options.

  •  

L’Espagne a totalement éteint son réseau cuivre

Espagne 1 - France 0
L’Espagne a totalement éteint son réseau cuivre

L’Espagne fait ses « adieux définitifs au cuivre », avec la fermeture la semaine dernière des derniers centres. C’est l’aboutissement d’un plan débuté il y a 10 ans, à Barcelone et à Madrid. En France, la fermeture définitive du cuivre a débuté cette année et va se poursuivre jusqu’en 2030.

Il y a 10 ans, l’Espagne débutait la fermeture de son réseau cuivre utilisé pour le xDSL. Comme en France, il s’agissait de laisser la place à la fibre optique. À son apogée, le réseau cuivre espagnol comptait plus de 8 500 centres actifs, selon la Comisión Nacional de la Competencial (équivalent local de votre DGCCRF).

Les arguments sont les mêmes quel que soit le pays : le « maintien d’un réseau cuivre vieillissant, parallèle au nouveau réseau fibre, et de moins en moins utilisé, était coûteux et inefficace […] Nous sommes parmi les premiers à fermer le cuivre, car nous sommes également à l’avant-garde du déploiement de la fibre optique », se gargarise l’Espagne.

L’Arcep donne un peu plus de précisions. Il y a évidemment les débits montants et descendants (jusqu’à 8 Gb/s symétrique) et « une meilleure qualité de service que le réseau cuivre ». Le régulateur ajoute que « la fibre optique est aussi moins gourmande en énergie : un abonné à la fibre consomme quatre fois moins d’énergie qu’un abonné au cuivre ».

Un plan sur 10 ans, une grosse accélération à la fin

« Le processus a été long, complexe et a nécessité une coordination étroite », explique la CNMC dans un billet de blog. Les plans de fermeture du cuivre remontent à 2009, quand « quelques centaines de milliers de foyers étaient couverts par la fibre » en Espagne. Il faudra attendre novembre 2015 pour que les deux premiers centres ferment : Sant Guim del Vallès à Barcelone et Torrelodones à Madrid.

36 autres centres ont fermé dans la foulée, principalement à Madrid, Saragosse, Valladolid et Barcelone. La fermeture débutait par « de petits centraux, dans lesquels il n’y avait pas d’opérateurs alternatifs ». La situation évolue doucement les premières années : 50 centres fermés en mars 2018, 140 fin 2018, le millier fin 2021, 2 000 début 2023, 3 000 fin 2023.

C’est ensuite l’escalade et le passage à l’échelle : près de 8 000 en 2024, puis la totalité cette année. Sur la seule année 2024, plus de la moitié des centres ont été fermés, 4 903 pour être précis (sur environ 8 500). Il en restait 661 à fermer en 2025.

Dès le mois de juillet 2023, « 8 525 centres (c’est-à-dire tous sauf un, celui de San Marcial à Saint-Sébastien) ont déjà une date de fermeture ». Il devait fermer en octobre 2021, mais avait eu droit à du sursis « en raison des difficultés de déploiement de la fibre dans la vieille ville ». Tout est maintenant rentré dans l’ordre.

2025 – 2030 : fermeture technique du cuivre en France

En France, la fermeture définitive du réseau cuivre a été annoncée en 2019 par Orange. Elle est devenue une réalité pour les clients fin janvier avec la fermeture technique de 162 communes (lot 1), soit 210 000 locaux. La fermeture technique implique l’arrêt des abonnements existants s’il en restait.

Cette étape arrive après la fermeture commerciale, quand plus « personne ne peut plus commercialiser ou acheter une offre sur cuivre ». Après le début de la fermeture commerciale, les abonnements existants continuent de fonctionner jusqu’à la fermeture technique.

La fermeture du réseau cuivre doit s’achever dans cinq ans, en novembre 2030. Orange a mis en ligne une page dédiée pour suivre les fermetures programmées. Le régulateur des télécoms français (Arcep) rappelle que « le plan de fermeture du réseau cuivre a été initié et est piloté par Orange, en tant que propriétaire de ce réseau depuis la privatisation de France Télécom ».

L’Arcep encadre cette fermeture et a imposé à Orange plusieurs obligations : « que la fibre optique soit disponible sur la zone considérée », « des délais de prévenance suffisants » et une « obligation de transparence sur le calendrier ».

Il reste un sujet en suspens : que faire du million de kilomètres de câbles une fois que le réseau ne sera plus en service ? C’est un effet un « trésor de guerre » sur lequel est assis Orange, car il représente des milliards d’euros au cours actuel du cuivre (près de 10 000 dollars la tonne).

  •