Plusieurs médias indépendants s’associent pour élaborer une offre d’abonnement commune, et groupée : lancée d’ici la fin de l’année sous l’étiquette La Presse Libre, elle permettra de lire, en échange d’un forfait fixe, les informations et contenus d’une dizaine de titres partageant des valeurs journalistiques communes.
Les fidèles lecteurs de Next se souviennent certainement du lancement, en 2016, de La Presse Libre, qui réunissait plusieurs médias autour d’une logique d’abonnement couplé, avec des tarifs dégressifs en fonction du nombre de titres souscrits.
Le projet, élaboré et porté pendant des années par David Legrand, avait reçu un accueil positif, mais le temps et les ressources ont manqué pour réaliser les nombreux chantiers nécessaires à son évolution, conduisant à sa fermeture en 2022.
Quelques années plus tard, les médias indépendants ont encore et toujours besoin de se rassembler pour faire entendre leur voix, développer leur lectorat et in fine assurer leur pérennité.
Le besoin se fait même nécessité. D’abord, face à la dépendance aux modèles publicitaires, qui entraîne de nombreux médias à conditionner leur développement aux exigences d’acteurs commerciaux tels qu’Amazon, Google ou Meta, sans même parler d’X, OpenAI et consorts…
Ensuite, devant la concentration d’un nombre toujours plus important de titres entre de mêmes mains, qui entraîne mécaniquement un risque de réduction de la diversité des sources et des points de vue, là où nous avons collectivement besoin d’un éventail aussi large que possible.
Revoilà donc La Presse Libre (et non la sous-préfète), sous la forme d’une nouvelle initiative. Plus ambitieuse. Mieux structurée aussi. Avec une promesse claire, incarnée par un forfait unique, permettant d’accéder à l’intégralité des contenus d’une dizaine de médias partenaires. Le tout doublé d’un portail commun, chargé d’exposer cette pluralité d’informations, d’analyses et d’enquêtes.
Bâtir une telle offre n’a rien d’une sinécure : il faut trouver une ligne directrice, imaginer des clés de répartition, trouver une mécanique de solidarité entre médias d’audiences et de surfaces financières différentes, et bien d’autres sujets encore, avant même de trancher les aspects techniques et lancer les développements nécessaires.
Plus encore qu’en 2016, il nous semble cependant que le jeu en vaut la chandelle, et des auspices favorables accompagnent déjà cette nouvelle Presse Libre. Le Fonds pour une presse libre (FPL), créé par Mediapart, vient par exemple d’accorder au projet une avance remboursable d’un montant record de 60 000 euros, au titre de ses aides financières au journalisme indépendant.
Un discret sondage mené auprès d’un échantillon de la communauté des lecteurs de Next nous a par ailleurs confirmé qu’une résurgence de La Presse Libre serait accueillie très favorablement.
Le travail a donc déjà commencé, au sein d’une association de préfiguration qui, outre Next, réunit six autres médias fondateurs : Arrêt sur images, Politis, Mediacités, Hors-série, Reflets et Les Jours.
Depuis quelques heures, trois sites pornographiques parmi les plus importants – Pornhub, Redtube et Youporn – affichent désormais le même message : leur accès est suspendu en France. Leur éditeur, Aylo, a pris cette décision pour protester contre la vérification d’âge obligatoire sur les sites pour adulte.
C’est donc fait. La loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique, dite SREN, a permis à l’Arcom de déclarer la guerre aux sites pornographiques ne disposant d’aucun mécanisme pour contrôler l’âge des internautes. Comme le rappelait encore hier l’Autorité, laisser du contenu pornographique accessible aux mineurs est une infraction pénale (article 227 - 24 du Code pénal). Or, toujours selon l’Arcom, plus d’un tiers des adolescents de 12 à 17 ans visite au moins une fois par mois Pornhub.
La situation couvait depuis des années
L’autorité est devenue l’institution clé pour appliquer cette réglementation. À ce titre, elle peut intervenir directement auprès des plateformes et émettre des mises en demeure pour les sites ne respectant pas cette obligation. Au cours des derniers mois, celle-ci est devenue plus prégnante. Le 6 mars dernier, un arrêté ministériel a ainsi désigné 17 sites européens comme étant en infraction, dont ceux d’Aylo.
Le sujet de la vérification est revenu régulièrement sur la table ces dernières années. En 2022, une étude avait conclu que la vérification de l’âge à grande échelle était complexe. Pourtant, l’Arcom estime aujourd’hui que des solutions existent et qu’elles sont simples à mettre en place. La plupart des sites aurait aujourd’hui un tel mécanisme.
Mais Aylo, éditeur de Pornhub, Redtube et Youporn, est depuis le départ vent debout contre cette mesure. Le groupe peste et fustige contre cette obligation, arguant de sérieux problèmes de vie privée à résoudre, puisque les prestataires se retrouveraient avec de nombreuses informations identifiantes sur les internautes fréquentant ces sites pour adultes. Pourtant, dans sa délibération du 26 septembre 2024 (pdf), la CNIL se félicitait que toutes ses préconisations aient été prises en compte dans l’élaboration du référentiel pour les tiers de confiance, acteurs dont la mission est de collecter la preuve de l’âge et de transmettre une simple confirmation au site visité. La CNIL validait notamment le principe de « double anonymat ».
Aylo suspend de lui-même ses sites
Depuis le 11 avril, tout s’est emballé. La date a marqué la fin d’une période de grâce durant laquelle les sites devaient se mettre en conformité. Depuis, tous les sites pour adultes ont l’obligation de mettre en place ce système de double anonymat, comme l’a par exemple fait OnlyFans. Pourtant, début mai, la Cour d’appel de Paris remettait en question l’application extraterritoriale du droit français à des sites installés ailleurs en Europe, en l’occurrence xHamster et Tukif.
Aylo, éditeur installé à Montréal, n’a pas voulu attendre la date butoir du 6 juin. Depuis mercredi 4 juin, peu avant 15 heures, ses principaux sites Pornhub, Redtube et Youporn sont inaccessibles en France. Les trois sites affichent le même message. « Votre gouvernement propose de vérifier votre âge à chaque fois que vous visitez notre site, c’est fou, non ? Cela ne protège pas les mineurs — mais au contraire, cela met en danger la vie privée de tout le monde et expose les enfants à des risques », fustige Aylo.
L’éditeur met en garde contre le « risque de sécurité inacceptable » que ferait courir l’application du droit français, en voulant concentrer des informations sensibles entre les mains de quelques acteurs. « Votre gouvernement ne vous dira pas la vérité à ce sujet, mais nous le ferons », proclame Aylo.
Une solution « inefficace, aléatoire et dangereuse »
Le message, porté depuis dans un communiqué de presse, met surtout en avant deux arguments. D’une part, l’éditeur pointe la vérification de l’âge au niveau de l’appareil comme solution simple et ultime. Il suffirait d’imposer à Microsoft, Apple et Google que cette fonction soit présente au sein de leurs systèmes d’exploitation pour que les sites puissent récupérer un sésame. « Le gouvernement français refuse de prendre cette mesure simple et se concentre plutôt sur des actions réglementaires futiles et entièrement symboliques qui sont inapplicables, ne protègent pas les enfants et exposent vos données privées », ajoute Aylo.
D’autre part, « les gens ne cesseront pas de chercher du porno ». Pour l’éditeur, ils se dirigeront simplement vers des « centaines de milliers de plateformes peu sûres », qui ne se conforment pas davantage à la loi et n’ont aucune politique de confiance et de sécurité pour les informations collectées. Selon Aylo, « toutes les données indiquent que ces lois n’ont fait que détourner le trafic vers des sites web dangereux ».
La méthode française est donc jugée « inefficace, aléatoire et dangereuse ». On ajoutera que les blocages étant basés sur les DNS, leur contournement est aisé. Rappelons qu’aux États-Unis, des chiffres montraient en janvier que les États imposant des restrictions sur le porno avaient vu une explosion des téléchargements de VPN.
L’Arcom, de son côté, indique simplement avoir pris « acte de la décision du groupe Aylo ». L’éditeur aurait ainsi « fait le choix de se soustraire à l’impératif que constitue la protection des mineurs en suspendant l’accès à ses contenus en France y compris pour un public majeur, alors qu’il existe de nombreuses solutions techniques sur le marché permettant de vérifier l’âge des utilisateurs tout en assurant la protection de leurs données personnelles ».
Rappelons enfin que la Commission européenne a déclenché sa propre procédure contre plusieurs sites pornographiques, dont Pornhub. Elle leur reproche une absence de conformité avec le DSA dans le cadre de la lutte contre l’accès aux mineurs des contenus pornographique. En outre, l’Europe table sur une solution harmonisée de vérification de l’âge, qui a été confiée à l’Espagne.
Visé par plusieurs mandats d’arrêts internationaux, Badiss Mohammed Bajjou, 24 ans, a été interpellé au Maroc ce 3 juin, d’après les informations du Parisien.
Originaire du Chesny, dans les Yvelines, le jeune homme est suspecté d’avoir commandité l’agression commise le 20 juillet 2023 contre une femme de 56 ans, à Élancourt, afin que son fils paie une rançon en cryptomonnaie.
Depuis ce premier coup réussi, il aurait orchestré l’enlèvement spectaculaire de David Balland, cofondateur de Ledger, en janvier.
Les ravisseurs avaient sectionné un doigt de l’entrepreneur pour augmenter la pression sur ses proches et obtenir une rançon.
La justice explore par ailleurs les liens de Badiss Mohammed Bajjou avec les enlèvements et tentatives d’enlèvements des dernières semaines. L’un a conduit à une nouvelle mutilation de victime. Le second, qui visait la fille d’un entrepreneur du monde des cryptoactifs, a échoué.
Pour la justice française, l’arrestation de Badiss Mohammed Bajjou est une première étape pour endiguer ce phénomène de « cryptorapts ».
Le suspect semble toutefois avoir profité de sa présence au Maroc pour obtenir la double nationalité marocaine. Or, le pays n’extrade pas ses ressortissants.
Windsurf, éditeur d’un environnement de développement intégré copieusement dopé à l’IA, est dans la panade : Anthropic lui a coupé l’accès à ses modèles Claude. Windsurf avertit actuellement sa clientèle d’une cassure dans leur utilisation. Si Anthropic ne s’est pas encore exprimée sur le sujet, certains éléments pointent vers une mesure de riposte.
Windsurf est un IDE populaire. L’ancien Codeium s’est largement recentré sur le développement assisté par l’IA générative, plus particulièrement les agents. Ce virage a permis à l’environnement de se faire un nouveau nom, face à des ténors comme Visual Studio Code et JetBrains. Sur ce créneau, il est un concurrent direct d’un autre IDE populaire en ce moment, Cursor (édité par Anysphere).
Le fonctionnement de Windsurf dépend étroitement des modèles choisis pour l’inférence, autrement dit la phase de « réflexion ». Dans le domaine du développement, les modèles d’Anthropic sont particulièrement appréciés et Windsurf dispose d’accès aux API correspondantes pour transférer les requêtes.
Mais cette nuit, coup de tonnerre. Dans un tweet publié vers 1 h du matin, le CEO de Windsurf, Varun Mohan, prévient d’une catastrophe : « Avec moins de cinq jours de préavis, Anthropic a décidé de couper la quasi-totalité de sa capacité de première partie pour tous les modèles Claude 3.x ».
Deux mois intenses
Pour comprendre la situation actuelle, il faut se plonger dans le contexte bouillonnant des derniers mois. Mi-avril, CNBC indiquait ainsi qu’OpenAI s’intéressait vivement aux entreprises éditant ce type d’IDE. Selon nos confrères, l’entreprise de Sam Altman aurait approché une vingtaine de sociétés, dont Anysphere et son Cursor. La startup aurait décliné, portée par une envolée du chiffre d’affaires et une volonté farouche de rester indépendante. Selon Bloomberg, Anysphere chercherait à faire relever sa valorisation à 10 milliards de dollars.
En revanche, les discussions avec Windsurf auraient été plus productives. À la même période, Bloomberg rapportait ainsi que les échanges avec OpenAI avaient conduit à une offre de 3 milliards de dollars. Bien qu’aucune des deux entreprises n’ait confirmé depuis, la rumeur est tenace et Windsurf pourrait donc intégrer l’un des plus gros acteurs de l’IA générative, dont Anthropic est bien sûr concurrente.
Depuis, la situation s’est accélérée. En mai, Anthropic a tenu sa première conférence dédiée aux développeurs. Baptisée « Code with Claude », elle a été le théâtre de deux grandes annonces. D’une part, la présentation de la nouvelle famille Claude 4, dont le nouveau Sonnet et la nouvelle grande star de l’entreprise, Opus. D’autre part, la disponibilité en version finale de Claude Code, la propre application maison d’Anthropic pour l’aide active au développement.
Enfin, toujours à la mi-mai, Windsurf a annoncé sa propre famille de modèles. Nommée SWE-1, elle comprenait surtout la version principale, directement comparée à Claude 3.5 Sonnet, aux performances similaires mais moins chère.
Claude 4 : le coup de semonce
Windsurf pouvait se douter que quelque chose clochait. Comme elle l’indique elle-même dans le communiqué publié cette nuit, l’annonce des modèles Claude 4 s’était accompagnée d’un silence glacial d’Anthropic. Aucune clé n’a été attribuée à Windsurf, qui a alors choisi de contourner ce blocage, au prix d’un accès plus onéreux pour les utilisateurs.
Cette nuit, c’est la totalité des accès aux API d’Anthropic qui a été supprimée. Dans son tweet, Varun Mohan indique que le délai fixé par Anthropic est très court : cinq jours. Le CEO indique que face « à la brièveté du préavis », Windsurf a augmenté en urgence la capacité pour les autres fournisseurs, mais qu’il faut s’attendre rapidement à des problèmes de disponibilité pour tous les modèles Claude 3.X.
En outre, et comme indiqué par le communiqué, Windsurf met en place un tarif promotionnel (- 25 %) pour Gemini 2.5 Pro de Google, lui aussi très à l’aise en développement. Parallèlement, l’accès aux modèles Claude 3.X est supprimé pour les comptes gratuits. Enfin, l’accès à Claude Sonnet 4 reste possible quand la clé est apportée par le client.
Une décision stratégique ?
« Nous avons clairement indiqué à l’équipe d’Anthropic que notre priorité était de conserver les modèles Anthropic comme modèles recommandés, et nous avons toujours été prêts à payer pour la capacité. Nous continuerons à travailler pour trouver de la capacité auprès d’autres fournisseurs parce que nous ne nous soucions que du produit et de nos utilisateurs », indique le communiqué de Windsurf. L’entreprise dit craindre également que le comportement d’Anthropic « porte préjudice à de nombreux acteurs du secteur ».
L’entreprise est donc prête à payer, mais Anthropic fait pour l’instant la sourde oreille. À l’heure actuelle, cette dernière ne semble s’être exprimée qu’auprès de TechCrunch, de manière minimale.
« Nous donnons la priorité à des partenariats durables qui nous permettent de servir efficacement la communauté des développeurs. Les développeurs peuvent également accéder à Claude via notre intégration API directe, notre écosystème de partenaires et d’autres outils de développement », a ainsi déclaré un porte-parole à nos confrères.
La décision d’Anthropic semble stratégique. Il pourrait s’agir d’une mesure de représailles après le faisceau d’annonces laissés par Windsurf au cours des deux derniers mois. Anthropic pourrait avoir été échaudé par le lancement des modèles SWE-1, directement comparés aux siens, et les puissantes rumeurs du rachat par OpenAI. De plus, avec le lancement de Claude Code, les deux éditeurs sont devenus des concurrents.
Des chercheurs ont découvert que les applications de Meta et Yandex, souvent déjà installées, traquaient les activités des utilisateurs d’Android sur n’importe quel navigateur. Ce système leur permettait de désanonymiser les données récoltées via leurs traqueurs web (Meta Pixel et Yandex Metrica).
Meta et Yandex ont contourné les protections de sécurité et de respect de la vie privée d’Android pour désanonymiser les informations récoltées via leur système de tracking sur le web, ont découvert le chercheur Narseo Vallina-Rodriguez et ses collègues. Ceux-ci ont publié le détail de leurs observations directement sur un site GitHub.
S’ils ont observé ce mécanisme sur Android, ils expliquent n’avoir rien trouvé sur iOS. Mais ils ajoutent : « cela dit, un partage de données similaire entre les navigateurs iOS et les applications natives est techniquement possible ».
Les deux entreprises ont mis en place depuis longtemps des systèmes qui permettent de récolter des informations sur les visiteurs de sites web : Yandex Metrica et Meta Pixel. L’entreprise russe présente son outil aux responsables de sites comme un moyen de récupérer « toutes les informations que vous avez toujours voulu connaître sur votre site web ». De son côté, l’entreprise étasunienne les pousse à ajouter « un morceau de code à votre site web, qui vous permet de mesurer, d’optimiser et de créer des audiences pour vos campagnes publicitaires ». Mais ces quelques lignes de JavaScript ajoutées sur un bon nombre de sites web permettaient aussi à ces entreprises de récupérer des données sur les utilisateurs de leurs services sur Android.
Envoi d’informations via le serveur local
En effet, les chercheurs ont découvert que les applications de Meta (Facebook, Instagram) et celles de Yandex (dont l’appli de navigation et le navigateur) recevaient « les métadonnées, les cookies et les commandes des navigateurs » via Yandex Metrica et Meta Pixel.
Ces traqueurs récupèrent ces informations au gré de l’utilisation de n’importe quel navigateur installé sur le smartphone. Mais ils se connectaient également en silence avec ces applications via une connexion interne au téléphone (socket localhost) utilisant des ports UDP et TCP locaux au smartphone.
Les chercheurs observent qu’Android permet à toute application installée disposant d’une autorisation d’accès à internet d’ouvrir un socket qui écoute sur l’adresse locale (127.0.0.1, localhost) de l’appareil.
« Cela permet au JavaScript intégré dans les pages web de communiquer avec les applications Android natives et de partager les identifiants et les habitudes de navigation, en établissant un pont entre les identifiants web éphémères et les identifiants d’applications mobiles à long terme à l’aide d’API web standard », expliquent-ils.
« Puisque les applications natives accèdent par programmation aux identifiants des appareils tels que l’Android Advertising ID (AAID) ou gèrent l’identité des utilisateurs comme dans le cas des applications Meta, cette méthode permet effectivement à ces organisations de relier les sessions de navigation mobile et les cookies web aux identités des utilisateurs, et donc de désanonymiser les utilisateurs qui visitent des sites intégrant leurs scripts », ajoutent les chercheurs.
Un système mis en place depuis 2017 par Yandex et depuis quelques mois par Meta
Selon eux, Yandex avait mis en place ce système depuis 2017. Du côté de Meta, cette désanonymisation des données de son traqueur date « seulement » de septembre 2024.
Ils constatent que cette méthode met en échec « l’isolation inter-processus d’Android et ses protections de suivi basées sur le partitionnement, le sandboxing ou l’effacement de l’état côté client ».
Pris les doigts dans le pot de confiture, Meta et Yandex mettent sur pause
Interrogée par ArsTechnica, Google explique que ces comportements violent les conditions de service de Google Play et les attentes des utilisateurs d’Android en matière de protection de la vie privée. « Nous avons déjà mis en œuvre des changements pour atténuer ces techniques invasives, nous avons ouvert notre propre enquête et nous sommes directement en contact avec les parties », affirme un de ses représentants.
Meta n’a pas répondu aux questions de notre confrère, mais a assuré être en discussion avec Google « pour remédier à une éventuelle erreur de communication concernant l’application de leurs politiques ». L’entreprise ajoute avoir décidé de suspendre « cette fonctionnalité pendant que [elle travaille] avec Google pour résoudre le problème ».
Dans une mise à jour sur leur site, les chercheurs confirment que « le script Meta/Facebook Pixel n’envoie plus de paquets ou de requêtes à localhost. Le code responsable de l’envoi du cookie _fbp a été presque entièrement supprimé ».
Yandex affirme aussi à ArsTechnica avoir arrêté et être en contact avec Google. « Yandex respecte strictement les normes de protection des données et ne désanonymise pas les données des utilisateurs », jure l’entreprise. Elle ajoute que « la fonctionnalité en question ne collecte aucune information sensible et a pour seul but d’améliorer la personnalisation dans nos applications ».
Brave protégé, Microsoft ne répond pas, les autres patchent
Les chercheurs ont travaillé avec les équipes de plusieurs navigateurs (Chrome, Mozilla, DuckDuckGo, et Brave). Du côté de Brave, « les communications vers localhost requièrent le consentement de l’utilisateur depuis 2022 et une liste de blocage est en place », ce qui permet au navigateur de ne pas être affecté. DuckDuckGo utilise aussi une liste de blocage qu’il a dû mettre à jour pour parer le système mis en place par Yandex.
Firefox n’est touché que par la méthode de Yandex. Les chercheurs expliquent que la résolution est en cours, sans plus de détails. La version 137 de Chrome embarque des contre-mesures contre les méthodes de Meta et de Yandex qui semblent fonctionner, mais les chercheurs proposent une autre solution à plus long terme. Enfin, bien que le navigateur Edge de Microsoft soit touché par les deux méthodes, l’équipe de Narseo Vallina-Rodriguez n’a pas d’information sur d’éventuels patchs.
Concernant des implications légales sur la violation du consentement des utilisateurs, il semble que « ces pratiques ont pu être mises en œuvre sur des sites web sans formulaires de consentement explicites et appropriés pour les cookies ». « Si un site charge les scripts Facebook ou Yandex avant que l’utilisateur n’ait donné son accord pour les cookies appropriés, ce comportement se déclenchera quand même », estiment les chercheurs, tout en précisant que ceci ne se base que sur des résultats préliminaires.
En février, Adobe s’est essayé pour la troisième fois à une déclinaison mobile de Photoshop, d’abord sur iPhone. Contrairement aux deux tentatives précédentes, il ne s’agissait pas cette fois d’une variante tactile aux fonctions largement amputées, mais d’une application comme on pouvait l’attendre. Les fonctions étaient nombreuses – sans atteindre bien sûr leurs équivalentes pour ordinateurs – et on retrouvait toutes les capacités principales.
Une version pour Android est désormais disponible. Il s’agit pour l’instant d’une bêta, mais ce statut de préversion s’accompagne d’un avantage certain : tant que durent les tests, l’application est complètement gratuite. La version finale nécessitera un abonnement, comme sur iPhone.
Cette version Android ne contient pas toutes les fonctions, mais beaucoup sont déjà disponibles. On retrouve bien sûr les calques et masques. Tous les outils dopés à l’IA sont présents pour faciliter la sélection, la modification, le remplacement ou la suppression des éléments. On note aussi le pinceau de correction des taches, le remplissage génératif, les sélections précises via Sélection d’objet et Baguette magique, les modes de fusion, les clones ou encore les recadrages (mais uniquement en fonction du ratio pour l’instant).
On ne sait pas combien de temps durera la bêta, ni si des mises à jour seront proposées pour ajouter des fonctions avant la version finale. En revanche, on sait ce que l’application réclame : un appareil avec Android 11 au moins et un minimum de 6 Go de mémoire, même si Adobe précise que 8 Go sont recommandés. L’application elle-même a besoin de 600 Mo d’espace libre.
Enfin, cette version mobile de Photoshop est connectée et réclame un compte pour fonctionner.
La distribution GLF OS, axée sur le jeu vidéo, est désormais disponible en bêta publique. Dans ce premier article, nous allons présenter les grandes lignes du système. Dans un deuxième temps, nous ferons une prise en mains de GLF OS et nous pencherons plus généralement sur le jeu vidéo sur Linux.
Le jeu vidéo représente souvent une barrière au changement d’environnement. Sur PC, l’immense majorité des titres ne sont disponibles que sous Windows, quelle que soit la boutique utilisée pour y jouer. Il est plus simple de trouver des équivalents Linux pour la plupart des applications que de faire fonctionner ses jeux préférés. Du moins, ce fut le cas pendant longtemps.
La situation a sérieusement commencé à évoluer ces dernières années, sous l’impulsion de Valve particulièrement. Le projet Proton, issu d’un fork de Wine, est désormais au cœur d’une offensive de l’éditeur dans le monde du jeu vidéo. Il est pleinement intégré à Steam OS, que l’on retrouve surtout sur la console portable Steam Deck. Celle-ci ayant connu un grand succès commercial, elle a fait des émules, entrainant une réflexion nouvelle sur la possibilité de jouer sur Linux. GLF OS arrive donc à un tournant intéressant.
Une naissance simple
Vinceff, très impliqué dans la communauté Linux avec notamment de nombreuses vidéos tutos, est l’initiateur de GLF OS (dépôt GitHub). Comme il nous le raconte, il était utilisateur de Mageia. Il avait basculé sur Linux après une énième mise à jour problématique de Windows 10 et s’était rendu compte que ses jeux principaux fonctionnaient sur la distribution. C’est dans ce contexte qu’il commence à proposer des vidéos.
Rapidement, la chaine YouTube gagne des dizaines d’abonnés. Quand le cap des 250 est franchi, Vinceff décide d’ouvrir un serveur Discord pour favoriser les discussions. Il le nomme simplement Gaming Linux FR et les personnes affluent, aussi bien des « sachants » que d’autres, intéressées par le thème et cherchant des réponses à des problèmes pratiques.
Le Discord, créé pendant la crise sanitaire, compte aujourd’hui plus de 3 300 membres. Aucune distribution n’est privilégiée, la thématique étant l’entraide sur le thème général du jeu sur Linux. L’idée est cependant venue d’une distribution qui serait entièrement tournée vers le jeu, en facilitant la prise en main et en donnant immédiatement accès aux outils courants. Le projet a été nommé GLF OS, GLF étant une simple contraction de Gaming Linux FR.
Le système est aujourd’hui le résultat d’un travail d’équipe, comprenant des contributions de plusieurs dizaines de développeurs, le cœur de l’équipe étant constitué d’une petite vingtaine de personnes. Le projet, lui, est codirigé par Vinceff et Cammi.
Une base NixOS
Un grand nombre de distributions sont basées sur Debian ou Ubuntu. GLF OS a regardé ailleurs : vers NixOS. Cette distribution Linux ne date pas d’hier, puisque le projet de recherche qui lui a donné naissance date de 2003. Le système a même sa propre fondation depuis 2015.
NixOS est avant tout basée sur le gestionnaire de paquets Nix. Tout se fait par une configuration déclarative : on écrit dans un fichier texte ce que l’on souhaite, et le gestionnaire construit le système à partir de ces informations. C’est autant le cas pour l’installation initiale que pour les mises à jour.
Comme nous l’explique Vinceff, cette approche déclarative est couplée à une gestion transactionnelle des configurations. Les mises à jour sont donc atomiques, ce qui signifie – dans les grandes lignes – que les opérations liées créent une nouvelle image du système, sur laquelle l’utilisateur ne bascule réellement qu’au redémarrage suivant, si aucune erreur n’a été détectée. Ce mécanisme permet une fiabilité généralement plus élevée, car l’image utilisée est en lecture seule. L’atomicité a particulièrement le vent en poupe depuis quelques années, notamment chez Fedora.
NixOS propose toujours deux versions par an, en mai et novembre. La numérotation des versions est la même que pour beaucoup de distributions : l’année suivie du mois. La toute fraiche version 25.05 désigne ainsi la version « mai 2025 ». Le système est disponible en deux branches, stable et unstable. Pour ses objectifs, GLF OS compose avec les deux, comme nous le verrons.
GLF OS : premier contact
L’installation de GLF OS ne réserve aucune surprise. L’environnement par défaut est GNOME, mais l’installateur permet de changer pour KDE. Pour le reste, on est sur la liste habituelle des questions pour cette étape, avec choix du partitionnement, création du temps, sélection du fuseau horaire, etc.
Il y a quand même une étape importante : le choix de l’édition. Par défaut, « Standard » installe la version complète du système pensée pour le jeu vidéo, qui réclame environ 20 Go d’espace libre. Il s’agit d’une suite complète, avec notamment Firefox en navigateur par défaut et LibreOffice pour la bureautique. On peut également choisir une installation minimale, fournie presque sans aucune application. Deux autres éditions sont proposées. La première, Studio, est orientée vers tout ce qui touche à la création graphique. La seconde est une variation intégrant Da Vinci Resolve (une licence est nécessaire).
L’installation (Standard dans notre cas) est un peu plus longue que pour une distribution ordinaire, NixOS ayant besoin d’un peu plus de temps pour construire le système, à partir des scripts propres à GLF OS. Au redémarrage, le bureau est très classique. Bien qu’il s’agisse d’une base GNOME modifiée, notamment pour avoir un dock affiché en permanence (via Dash to Dock), elle ne choquera pas longtemps une personne venant de n’importe quelle autre distribution GNOME.
L’un des éléments peut-être les plus « étranges », c’est l’absence apparente de gestion des mises à jour. Le système s’en occupe en fait seul et envoie simplement une notification pour indiquer qu’une opération est terminée. Dans ce cas, les changements ne seront pas appliqués tant que GLF OS n’aura pas redémarré. Le redémarrage n’est jamais suggéré.
En outre, l’installation d’applications supplémentaires se fait via Flatpak et passe par Easy Flatpak. L’approche générale de GLF OS se veut résolument moderne : un système atomique et des conteneurs logiciels.
Le jeu vidéo comme spécialité
GLF OS étant spécialisée dans le jeu vidéo, la distribution contient plusieurs applications dédiées à cet usage. Déjà, les personnes ayant un PC équipé d’un GPU NVIDIA auront la bonne surprise de constater que ce dernier est détecté et que l’installation des pilotes correspondants est automatique.
Côté logithèque, on retrouve bien sûr Wine et Proton, tous deux disponibles dans leur dernière révision. La distribution propose également trois applications cruciales : Steam évidemment, ainsi que Lutris et Heroic. Les deux dernières sont des clients capables de se connecter à des comptes Steam, Ubisoft, EA, Epic, GOG ou encore Amazon. De là, ils permettent l’accès aux jeux en créant un environnement préconfiguré pour permettre leur lancement grâce à Proton.
Dans cet esprit d’une plateforme pensée pour le jeu vidéo, on trouve tout un ensemble de modifications et d’ajouts. Par exemple, la base du système repose sur la branche stable de NixOS (GNOME, KDE, Wayland, Pipewire, pilotes NVIDIA…), mais tout ce qui nécessite des mises à jour régulières s’appuie sur la branche unstable. C’est le cas pour toutes les applications en lien avec le jeu vidéo comme Steam, Heroic Games Launcher, Lutris, Proton, Mesa et autres.
GLF OS apporte en outre ses propres modifications, dont le kernel qui est une version 6.14 modifiée pour régler certains soucis de compatibilité, notamment avec le Ryzen 9800 X3D d’AMD. L’équipe a également intégré des paquets pour étendre le support des volants de jeu (ThrustMaster, Fanatec et Logitech) et des manettes (Xbox, PlayStation, Switch et 8bitdo).
Nous aurons l’occasion de revenir sur le sujet avec une prise en main concrète et un retour d’expérience sur ce qu’est le jeu vidéo sur Linux aujourd’hui. En attendant, la bêta de GLF OS peut être téléchargée depuis son site officiel.
OpenAI a lancé en avril sa fonction Memory pour ChatGPT. Réservée aux personnes détentrices d’un abonnement payant, elle permet de retenir des informations entre plusieurs sessions d’utilisation. Par exemple, si l’on évoque dans ChatGPT une allergie alimentaire, le service s’en souviendra et n’évoquera pas cet aliment dans des idées de recettes. Du moins en théorie.
Depuis hier soir, cette fonction est disponible pour tous, a annoncé Sam Altman. Sous une certaine forme en tout cas, car la capacité à retenir des informations sera moindre que pour les comptes payants. Memory garde cependant son potentiel de transformer la manière d’interagir avec ChatGPT, en rendant l’expérience plus personnelle.
Ce point ne plaira pas à tout le monde. En Europe et dans plusieurs autres pays comme le Royaume-Uni et le Lichtenstein, la fonction n’est d’ailleurs pas activée par défaut. Il faudra se rendre dans Paramètres > Personnalisation > Mémoire > Référence à l’historique de chat pour l’activer. Dans le reste du monde, dont les États-Unis, elle est activée par défaut mais peut être coupée dans les paramètres.
Pour les personnes qui ne connaitraient pas le fonctionnement de cette mémoire, il faut la distinguer du fonctionnement habituel de ChatGPT. On peut demander au service en effet de retenir spécifiquement une information. Avec Memory, c’est ChatGPT lui-même qui retient ce qui lui parait important.
Dans les paramètres, on peut d’ailleurs voir une jauge indiquant le remplissage de cette mémoire. Il n’y a pas de contrôle direct sur les informations stockées par ChatGPT, OpenAI ne fournissant pas de liste, qui aurait pu servir à supprimer sélectivement les données. On peut interroger ChatGPT sur ce qu’il « sait » et demander à supprimer des informations spécifiques.
GitHub a inauguré le 19 mai dernier, en preview publique, une fonctionnalité visant à faciliter la création de tickets à l’aide de l’intelligence artificielle de Microsoft, Copilot. Face à la bronca des utilisateurs, la plateforme a discrètement fait marche arrière… pour mieux revenir ultérieurement ?
Point d’orgue de l’année chez Microsoft en matière d’annonces dédiées au monde des développeurs, la conférence Build a, cette année encore, accordé une place prépondérante à l’intelligence artificielle générative. Au gré de ses différentes présentations, l’éditeur a réaffirmé son ambition d’installer un « agent IA » partout où l’utilisation d’un modèle de langage serait susceptible d’avoir un intérêt.
Événement pour développeur oblige, GitHub (racheté pour mémoire 7,5 milliards de dollars en 2018) figurait logiquement au centre des attentions avec, entre autres annonces, une mise à niveau significative de l’assistant GitHub Copilot, censée faire de ce dernier un véritable agent capable de coder de façon autonome au sein d’un environnement spécifié par l’utilisateur.
Des tickets assistés par IA
Outre cet agent, à qui il suffit d’assigner un ticket pour l’activer, GitHub a profité de la Build pour déployer, plus discrètement cette fois, une autre fonctionnalité destinée aux utilisateurs finaux de la plateforme. « Pour vous aider à créer plus facilement des tickets de meilleure qualité, vous pouvez désormais créer des tickets en discutant avec Copilot », a introduit un porte-parole de l’entreprise.
Dans son billet d’annonce, il décrit comment le prompt « crée-moi un ticket pour un problème de rendu du markdown dans les commentaires », associé à une capture d’écran illustrant le défaut, entraîne la création d’un ticket complet, dûment documenté, avec description, et comparaison entre les comportements constaté et attendu. Bref, un rêve de développeur ? « Nous espérons que ces changements changeront la corvée de la création de tickets en jeu d’enfant, vous libérant ainsi un temps précieux pour vous concentrer sur la résolution des problèmes, et pas seulement sur leur documentation », se réjouit l’éditeur.
Las, l’accueil ne s’est pas révélé aussi favorable qu’escompté, comme en témoigne une discussion, initiée quelques jours après l’annonce, au titre en forme de pétition : « Allow us to block Copilot-generated issues (and PRs) from our own repositories ». Autrement dit, autorisez-nous à bloquer les problèmes générés par Copilot ainsi que les pull requests associées, directement depuis l’interface de gestion d’un dépôt.
Perte de temps et atteinte aux valeurs personnelles
Mcclure, qui signe cet appel, explique voir dans cette génération automatisée une perte de temps doublée d’une atteinte à ses valeurs quant à la pratique du code. « Filtrer ces problèmes/PR générés par IA représentera un fardeau supplémentaire pour moi en tant que mainteneuse, gaspillant non seulement mon temps, mais aussi celui des personnes ayant soumis les problèmes (qui ont généré du contenu IA auquel je ne répondrai pas), ainsi que du temps de votre serveur (qui a dû préparer une réponse à laquelle je ne donnerai pas suite) ».
Le message a été « upvoté » (approuvé et soutenu afin de lui donner de la visibilité) près de 1 300 fois. La conversation qui suit confirme que l’idée d’une assistance IA pour la création de tickets est loin de faire consensus. « Les propriétaires de dépôts doivent avoir le contrôle sur le moment et l’endroit où l’IA est utilisée dans le dépôt », résume l’un des participants.
Dix jours plus tard, un commentateur constate que la fonctionnalité décriée a disparu de l’interface sans crier gare. « Il se peut qu’elle ait disparu, temporairement. Elle reviendra d’une façon ou d’une autre, c’est garanti », lui répond un autre participant.
GitHub n’a pour l’instant ni réagi, ni commenté. Après tout, cette intégration était présentée comme une préversion publique, sujette à modification. En revanche, l’entreprise a annoncé le 29 mai le lancement, en early preview, d’une fonctionnalité baptisée Copilot Spaces, qui doit permettre aux gestionnaires de projets de centraliser tous les éléments de contexte susceptibles de servir à améliorer la qualité des réponses fournies par Copilot.
Non contente d’être, derrière Google, une des plus grosses régies publicitaires sur internet avec Meta Ads, l’entreprise de Mark Zuckerberg ambitionne de s’attaquer à un autre maillon de la chaine publicitaire : la création. Meta projette de proposer des outils, utilisant l’IA générative, qui permettent aux marques de créer leurs publicités du début à la fin.
Meta devrait proposer, d’ici la fin de l’année, des outils permettant aux entreprises de créer des publicités et de cibler les personnes auxquelles elles s’adressent, grâce à ses outils d’intelligence artificielle.
Si Meta Ads, la plateforme publicitaire de Meta, commence déjà à proposer de l’A/B testing en générant des variantes de publicités existantes, l’entreprise pense pouvoir proposer aux marques la possibilité de monter des concepts publicitaires de A à Z, expliquent plusieurs sources du Wall Street Journal.
Mark Zuckerberg l’évoquait déjà le mois dernier dans le podcast de Ben Thompson Stratechery. Pour lui, l’une des opportunités qu’apporte l’IA est d ‘ « optimiser le secteur de la publicité ». Le CEO de Meta affirmait que son entreprise maitrisait désormais complètement le profilage des potentiels clients.
L’objectif de Mark Zuckerberg : maitriser la chaine publicitaire
« Mais il reste toujours la partie créative », avait-il ajouté. « C’est-à-dire que les entreprises viennent nous voir et ont une idée de leur message, de leur vidéo ou de leur image, et c’est assez difficile à produire, mais je pense que nous en sommes assez proches », en référence à ses outils d’IA générative.
Dans ce podcast, Mark Zuckerberg exprimait clairement sa volonté de maitriser toute la chaine publicitaire : « Nous allons arriver à un point où vous êtes une entreprise, vous venez nous voir, vous nous dites votre objectif, vous vous connectez à votre compte bancaire, vous n’avez besoin d’aucune création, vous n’avez besoin d’aucun ciblage démographique, vous n’avez besoin d’aucune mesure, vous avez juste besoin de lire les résultats que nous produisons ». Et d’ajouter : « Je pense que cela va être énorme, je pense qu’il s’agit d’une redéfinition de la catégorie de la publicité ».
Ciblage et adaptation de la publicité à la cible
Selon le Wall Street Journal, le projet de Mark Zuckerberg est bien en route. Les outils boostés à l’IA que Meta développe doivent permettre à une marque d’obtenir une pub finalisée comprenant image, vidéo et texte. Tout ça en ne donnant au système qu’une image du produit et son objectif budgétaire. L’outil de Meta déciderait quelles personnes viser, en proposant bien sûr de cibler des utilisateurs de ses réseaux sociaux Facebook et Instagram.
L’entreprise prévoit même de pouvoir modifier les rendus des publicités en fonction des données qu’elle possède sur les utilisateurs cibles. « Une personne qui voit une publicité pour une voiture dans un endroit enneigé, par exemple, peut voir la voiture en train de gravir une montagne, alors qu’une personne qui voit une publicité pour la même voiture dans une zone urbaine la verra rouler dans une rue », explique le Wall Street Journal.
Quelles entreprises visées ?
Il est pour l’instant difficile de juger de l’efficacité de ces outils tant qu’ils ne sont pas disponibles. Meta, comme toutes les autres entreprises d’IA générative, n’a pas résolu le problème des « hallucinations » des modèles. Et, si un utilisateur lambda peut passer outre lorsqu’il fait de petites vidéos personnelles pour les réseaux sociaux, ce peut être plus gênant pour la publicité d’une entreprise.
« La sécurité des marques est encore une question importante, c’est pourquoi les laisser faire et optimiser la création est un concept effrayant », affirmait le CEO d’une agence de publicité, interrogé par The Verge suite aux déclarations de Mark Zuckerberg.
Le Wall Street Journal, de son côté, évoque plutôt « une aubaine pour les petites et moyennes entreprises, qui représentent la plupart des annonceurs sur les plateformes de Meta et n’ont souvent pas de gros budgets pour la création de publicités ». Mais les sources du journal précisent que les outils développés par Meta demandent énormément de puissance, voire des modèles spécifiques à chaque marque.
Une autre question reste en suspens : en se donnant la possibilité de maitriser toute la chaine publicitaire, Meta ne risque-t-elle pas d’attirer l’œil des autorités de régulation ?
Les bots des entreprises d’IA qui parcourent le web en permanence augmentent la fréquentation des sites de manière vertigineuse. Si tout type de sites est touché, les bases de données ouvertes et les revues scientifiques le sont particulièrement. Le blocage de ces bots n’est pas simple, mais CloudFlare a esquissé récemment une solution.
Les bots des entreprises d’IA continuent, plus que jamais, à parcourir le web en permanence à la recherche d’information à récolter pour entrainer de nouveaux modèles mais aussi pour répondre en direct aux questions de leurs utilisateurs. En avril, Wikimédia alertait sur le sujet.
D’autres sites, moins connus mais avec des contenus tout aussi prisés, en font les frais : ceux qui hébergent des données et des articles scientifiques. Alors que les données de la recherche sont déjà menacées par l’administration Trump, les sites qui les hébergent doivent supporter un nombre important de connexions venant de ces bots.
Des contenus de haute qualité facilement accessibles
En effet, ces sites de revues sont réputés pour la qualité de leurs contenus qui sont, par définition, à la pointe de la connaissance scientifique. De même, les bases de données scientifiques sont des mines d’or de contenus. Elles rassemblent des informations agrégées par des experts d’un sujet, et souvent un tri et des métadonnées précises. Les chercheurs ont, de plus, récemment fait d’énormes efforts en ce qui concerne l’open access. Plus besoin de passer par un paywall ou même un compte pour accéder aux contenus ou aux données scientifiques. Bref, le rêve pour quelqu’un qui veut entrainer un modèle d’IA.
La revue Nature explique, par exemple, que DiscoverLife reçoit actuellement des millions de visites par jour. Jusqu’à récemment, cette base de données qui contient près de 3 millions de photos d’espèces d’animaux et de végétaux n’avaient aucun problème de trafic. Mais depuis le début de cette année, ça devient de plus en plus compliqué. « En février, environ dix millions de visites quotidiennes de robots sur DiscoverLife ont ralenti le site, interrompant de fait l’accès des humains », expliquaient récemment les responsables du site.
De même, en mars, Ian Mulvany, le CTO du British Medical Journal (BMJ, une des revues les plus connues dans le domaine) écrivait que « le problème est réel » et citait une des personnes de son équipe : « malheureusement, le trafic de robots sur les sites web de nos journaux a maintenant dépassé le trafic des utilisateurs réels. Ces robots agressifs tentent de parcourir des sites web entiers en peu de temps, ce qui surcharge nos serveurs web et a un impact négatif sur l’expérience des utilisateurs légitimes. (…) Plus de 100 millions de requêtes de robots proviennent de centres de données de Hong Kong et de Singapour au cours des trois dernières semaines ».
Auprès de Nature, le responsable de l’hébergeur de revues scientifique Highwire Press, Jes Kainth, témoigne aussi d’ « une augmentation considérable de ce qu’ [ils appellent] le trafic des « mauvais robots » ». Le géant de l’édition scientifique Wiley a aussi jugé bon de prendre position sur « le scraping illégal » mis en place par les développeurs d’IA. Ici, l’éditeur met plutôt en avant les problèmes de Copyright.
Un blocage par IP peu efficace
« Nous bloquons désormais plus de 190 millions d’adresses IP signalées par mois, mais les tentatives d’autres robots pour visiter le site restent une menace existentielle pour la plateforme », expliquaient le 20 mai dernier les responsables de DiscoverLife. Et effectivement, la course folle au blocage des blocs d’IP semble être la solution la plus simple et rapide à mettre en place.
Dans son billet de mars, Ian Mulvany expliquait que l’hébergeur de BMJ utilisait les services de blocage de bots de Cloudflare. Il remarquait cependant un problème : « lorsque le blocage du trafic de robots a été activé, il semblait que Cloudflare adoptait une approche large et bloquait presque tout ce qui ressemble à une communication de machine à machine ». Notamment, étaient bloquées l’utilisation des API mis en place ainsi que les méthodes d’authentification par lots d’IP. Plutôt problématique quand une bonne partie des utilisateurs sont des chercheurs dont l’autorisation d’accès est donnée par ce genre de méthodes et qui ont besoin d’accéder aux données sans forcément passer par le web.
Cloudflare propose une authentification des bots
Cloudflare et d’autres ont, depuis, mis en place des systèmes de labyrinthe pour bloquer les bots d’IA. Nous en parlions en avril. Mais, mi-mai, l’entreprise confirmait dans un billet de blog que « les mécanismes actuels de vérification des robots sont cassés ». Cloudflare pousse pour une autre approche : la signature de message HTTP. Stéphane Bortzmeyer détaille dans un billet de blog le fonctionnement de cette signature.
Cloudflare ajoute travailler « en étroite collaboration avec l’ensemble de l’industrie pour soutenir ces approches fondées sur des normes » et donne l’exemple d’OpenAI qui a commencé à signer ses demandes avec des signatures de message HTTP. L’entreprise creuse aussi d’autres pistes : « le protocole HTTP n’est pas le seul moyen de transmettre des signatures. Par exemple, un mécanisme qui a été utilisé dans le passé pour authentifier le trafic automatisé contre des points finaux sécurisés est mTLS, la présentation « mutuelle » des certificats TLS ».
L’entreprise pense que ces deux voies sont « des mécanismes prometteurs permettant aux propriétaires de robots et aux développeurs d’agents d’intelligence artificielle de s’authentifier de manière infalsifiable ». L’un de ces systèmes devrait, selon Cloudflare, permettre de remplacer les listes interminables de plages d’adresses IP et la vérification par User-Agent qui sont facilement falsifiables. Reste à voir si l’industrie de l’IA générative, qui jusque-là s’accommode bien de pouvoir moissonner le web sans demander d’autorisation, adoptera massivement ce genre de solutions.
Fondée par Gaël Duval, la société française Murena vient de lancer la troisième version majeure de son système d’exploitation mobile /e/OS. Les nouveautés sont nombreuses et dans la lignée des améliorations dont nous avait parlé le fondateur en février : un renforcement des protections de la vie privée, des services et de la collaboration.
/e/OS est un système d’exploitation mobile basé sur la ROM LineageOS. Ce dernier, successeur de CyanogenMod, est un système de remplacement pour Android, dont il reprend la base via AOSP (Android Open Source Project). /e/OS se veut donc un système débarrassé de tout service Google et conçu pour préserver autant que possible la vie privée de ses utilisateurs. Il peut être installé sur des téléphones existants ou obtenu via un téléphone commercialisé par Murena, y compris des Pixel reconditionnés et le Fairphone 5.
Le système n’est pas une simple reprise de LineageOS. Sa « dégooglisation » est plus prononcée et il intègre par défaut microG, une alternative open source aux Google Play Services. De nombreux petits changements ont été opérés çà et là, par exemple pour la synchronisation de l’heure et les DNS, toujours dans l’optique de préserver la vie privée. /e/OS a également son propre launcher, baptisé Bliss, et est intégré avec un éventail de services, Murena Cloud.
La nouvelle mouture du système prend directement la suite des précédentes et vient appuyer sur les points forts déjà en place. Mais elle vient surtout répondre à plusieurs faiblesses, même si toutes les nouveautés ne sont pas encore détaillées. Une conférence de présentation commence d’ailleurs immédiatement et peut être suivie sur YouTube, Peer.tube et même Telegram.
Les nouveautés majeures de /e/OS 3.0
Cette troisième version majeure est d’abord une modernisation de toute la base. Elle reprend (a priori) les apports d’Android 14 et devrait permettre à bon nombre d’appareils d’être mis à jour vers la nouvelle version. On ne sait pas en revanche quand les processus de migration seront mis en place.
/e/OS 3.0 renforce également sa protection de la vie privée. Le système offre ainsi un aperçu de la manière dont les informations sont traitées. Il génère des rapports hebdomadaires avec des informations détaillées sur les « apps invasives » et les traqueurs. Ces rapports fournissent en outre un score de confidentialité globale et pointent les fauteurs de troubles. Les utilisateurs peuvent partager ces informations sur les réseaux sociaux, même si beaucoup ont un fonctionnement contraire aux valeurs portées par Murena. Il est aussi possible de personnaliser l’accès à la position géographique pour les applications, en distinguant celles utilisant la vraie position de celles servies par une localisation factice.
La nouvelle version apporte aussi une fonction Vault pour l’espace de stockage. Il s’agit d’un coffre-fort dont le contenu est chiffré de bout en bout, basé sur CryptPad. Point important, ce service est compatible avec l’ensemble des fichiers à stocker, y compris les documents faisant l’objet d’un travail collaboratif.
Cet ajout, pour l’instant en bêta, prend place dans le bouquet Murena Workspace et nécessite donc un compte Murena. La version de base, comprenant 1 Go, est gratuite. Les tarifs vont ensuite de 1,99 euro par mois pour 20 Go à 24,99 euros par mois pour 2 To. Les abonnés payants reçoivent d’ailleurs une autre fonction : la dictée vocale, que Murena garantit « en toute confidentialité ».
Mode tablette et contrôle parental
L’un des plus gros apports de /e/OS 3.0 reste le mode tablette. Le système pouvait déjà être installé sur des tablettes (certaines sont d’ailleurs vendues sur la boutique officielle), sans disposer d’un affichage réellement adapté. C’est désormais le cas.
Le système renforce aussi son contrôle parental en lui apportant plusieurs fonctions importantes. On peut choisir la tranche d’âge des enfants et obtenir des réglages par défaut. Surtout, les applications restreintes peuvent désormais réclamer le code parental pour être installées. De plus, les parents peuvent généraliser l’utilisation du code à l’ensemble des installations, pour s’assurer que leurs enfants n’installent rien d’autre que ce qui est déjà en place.
On note enfin deux autres nouveautés. D’abord, la possibilité de retrouver son téléphone perdu via une fonction de recherche par SMS. Nous n’avons pour l’instant pas de détails sur le fonctionnement de cette fonction. Ensuite, la bascule du moteur de recherche par défaut sur Qwant, qui repose en partie sur Bing.
Il manque pour l’instant des informations importantes sur le nouveau système, notamment la version d’Android utilisée, la compatibilité matérielle, le fonctionnement de la recherche d’appareil ou encore de la dictée vocale. Nous mettrons à jour cette actualité lorsque nous aurons les réponses.
Les gouvernements devraient recourir aux données collectées par les satellites pour vérifier l’exactitude des données fournies par les sociétés privées en matière d’émission de gaz à effet de serre, estime une équipe de chercheuses et chercheurs du King’s College de Londres.
Si les entreprises – y compris celles de l’industrie technologique – ont pris l’habitude ces dernières années de diffuser des données relatives à leurs émissions, les scientifiques constatent que la majorité a diffusé des chiffres plus faibles que dans la réalité. En septembre 2024, the Guardian relevait par exemple que les émissions des data centers étaient probablement 662 % plus élevées que ce qu’affirmaient leurs opérateurs.
Photo de Louis Reed sur Unsplash
L’équipe du King’s College a comparé les informations publiées par 279 sociétés privées et celles effectivement constatées en recourant à Climate Trace, un projet en accès libre qui utilise les données de plus de 300 satellites et de milliers de capteurs pour estimer les émissions de dioxyde de carbone et de méthane de sites individuels.
75 entreprises, en particulier des entités états-uniennes actives dans les domaines du gaz et du pétrole, rapportent des chiffres équivalents au tiers de leurs émissions relevées grâce à Climate Trace – sachant que l’initiative elle-même pourrait ne pas rendre compte de l’intégralité des émissions produites.
Des résultats proches de ceux constatés par une équipe de Stanford, qui relevait des émissions de méthane trois fois supérieures sur les sites pétroliers et gaziers à ceux estimés par le gouvernement des États-Unis.
Le méthane est particulièrement suivi dans la mesure où, sur une période de vingt ans, son effet de réchauffement est 80 fois supérieur à celui du dioxyde de carbone, souligne le Financial Times.
Et si les technologies actuelles permettent de détecter les niveaux de méthane dans l’atmosphère, elles manquent de précision pour le dioxyde de carbone.
C’est la raison pour laquelle l’équipe de scientifiques, menée par Marc Lepere, enjoint les régulateurs à s’inspirer d’initiatives comme Climate Trace, qui utilisent d’autres indicateurs, dont la chaleur émise par une usine, pour estimer les émissions de dioxyde de carbone. En la matière, les données collectées par les satellites seraient à même de fournir des estimations plus précises que celles actuellement proposées par les entreprises elles-mêmes.
Si le gouvernement des États-Unis est en train de réduire toute obligation de diffusion des émissions de gaz à effet de serre dans le secteur privé, la Commission européenne étudie de son côté des manières d’améliorer les processus de reporting environnementaux des entreprises.
Microsoft avait déjà proposé une série d’améliorations pour son système d’exploitation afin de répondre aux exigences du DMA en Europe. Mais là où Apple freine des quatre fers, Microsoft joue la carte de l’élève modèle. L’entreprise vient même d’annoncer une nouvelle série de modifications, notamment pour son navigateur Edge.
En mars 2024, Microsoft avait présenté des changements dans Windows pour se mettre en conformité avec le DMA. Windows ayant été nommé contrôleur d’accès, il fallait en effet respecter les règles permettant une libre concurrence. Ce qui revenait à modifier certains comportements pour se montrer plus souple sur divers points.
Ces mesures comprenaient par exemple la possibilité de désinstaller le navigateur Edge et OneDrive, la capacité d’intégrer d’autres services de recherche au sein du système, l’ouverture à d’autres sources d’actualité pour les widgets, l’absence de connexion automatique aux autres services Microsoft lorsqu’on lie le compte à la session Windows, des demandes de consentement plus claires sur l’utilisation des données ou encore des modifications pour LinkedIn.
Navigateur par défaut : des changements plus simples
Windows 10 et 11 ont fait pester les éditeurs tiers de navigateurs. Le système mis en place pour modifier l’application par défaut est moins évident que dans les versions précédentes du système. Les étapes sont plus nombreuses et le changement doit être fait plusieurs fois selon les types de fichiers souhaités. La manipulation n’est donc pas simple pour les personnes ayant peu de connaissances informatiques.
Dans son billet, Microsoft indique que le bouton « Définir par défaut » associe actuellement http, https, .htm et .html avec le navigateur. Dans une future mise à jour de Windows, les liens ftp et read seront ajoutés, de même que les fichiers .mht, .mhtml, .shtml, .svg, .xht, .xhtml et .xml par défaut.
En outre, le même bouton provoquera l’épinglage du navigateur dans la barre des tâches et dans le menu Démarrer, à moins que l’utilisateur refuse ce comportement par une case à cocher. Enfin, un bouton séparé permettra de déclarer le navigateur par défaut comme visionneuse PDF, si l’application possède cette capacité.
Ces changements sont déjà présents dans la dernière bêta de Windows 11. Ils seront déployés dans les versions finales de Windows 10 et 11 le mois prochain.
Edge se fait plus discret
Autre changement, l’utilisation de Bing dans Windows Search ouvre désormais les liens des résultats dans le navigateur par défaut, et non dans Edge. Cette modification, assez attendue, est en cours de déploiement. Et comme on s’en doute, ce même changement s’applique aux widgets et aux éléments affichés sur l’écran verrouillé. Il s’agissait de l’un des plus gros reproches faits à Microsoft après les premiers changements annoncés pour le DMA.
Autre comportement pénible corrigé : Edge ne demandera plus sans arrêt à redevenir le navigateur par défaut. Ce changement est en fait déjà effectif. Il a été déployé le 29 mai dans la version 137.0.3296.52. Seule l’ouverture directe d’Edge affichera la question, comme pour les autres navigateurs.
Conséquence, les autres applications Microsoft ne demanderont plus qu’Edge soit réinstallé ou à nouveau utilisé comme navigateur par défaut. Selon l’éditeur, la plupart des applications ont déjà été modifiées en ce sens, les dernières devant être mises à jour avant la fin du mois. Seule exception, les applications web (PWA) présentes sur le Microsoft Store et bâties pour utiliser Edge.
Le Microsoft Store peut être supprimé
Enfin, le Microsoft Store pourra lui aussi être désinstallé. Cette modification sera répercutée « dans le courant de l’année », sans plus de précisions pour l’instant.
Rappelons que la quasi-totalité des applications intégrées de Windows 11 peuvent être désinstallées. Même si on aimerait que l’installation du système ait un mode minimal, la suppression des applications est simple. On peut le faire depuis les Paramètres, mais un clic droit sur une application dans le menu Démarrer suffit.
À l’instar de ses homologues et concurrents dans le domaine de la musique ou de la vidéo en ligne, Spotify révise régulièrement ses tarifs à la hausse. Après des augmentations survenues en 2023 et en 2024, le service a une nouvelle fois mis à jour sa politique tarifaire.
Le forfait Personnel, limité à un utilisateur, est désormais facturé 12,14 euros par mois (contre 11,12 euros précédemment, soit + 9,17 %). La formule Étudiants passe quant à elle de 6,06 à 7,07 euros par mois.
Le forfait Duo (deux comptes Premium logés à la même adresse) voit son prix passer de 15,17 à 17,20 euros. Enfin, la formule Famille (jusqu’à 6 comptes Premium ou Spotify Kids) enregistre une hausse significative (+ 16,64 %). Celle-ci amène son tarif au-delà de la barre symbolique des 20 euros, à 21,24 euros par mois.
« Alors que nous continuons à développer notre plateforme, nous mettons à jour nos prix, afin de pouvoir continuer à innover dans des conditions de marché changeantes. Grâce à ces mises à jour, nous apporterons toujours de la valeur aux fans », justifie de façon générique le service.
La nouvelle grille tarifaire de Spotify est entrée en vigueur début juin 2025
S’il n’a pas communiqué spécifiquement sur cette hausse de prix appliquée aux clients français, Spotify a récemment livré quelques chiffres censés illustrer sa contribution à l’économie de la création musicale en Europe.
Le service, qui annonce avoir franchi la barre des 100 millions d’abonnés payants sur le Vieux continent, affirme que les artistes européens référencés sur sa plateforme ont enregistré, par son intermédiaire, quelque 352 milliards d’écoutes de la part d’internautes européens en 2024. Plus de 17 000 de ces artistes européens auraient ainsi généré des revenus supérieurs à 10 000 euros sur l’année, et ils seraient plus de 27 000 à avoir dégagé au moins 5 000 euros grâce à ces écoutes.
« Près de 44 % de toutes les redevances générées dans l’UE proviennent d’artistes européens, soit le pourcentage le plus élevé depuis que nous avons commencé le suivi en 2017. Et, étape majeure pour la diversité linguistique, 57 % des redevances ont été versées à des artistes se produisant dans des langues autres que l’anglais », revendique Spotify, dont la politique de redistribution fait néanmoins l’objet de critiques accentuées par l’essor de l’IA générative.
Microsoft et CrowdStrike utiliseront désormais une taxonomie commune pour désigner les groupes organisés auteurs de menaces ou d’attaques cyber, en fonction de leur origine géographique ou de leur motivation principale. S’il se défend de vouloir créer un standard, l’éditeur ne cache pas son ambition de fédérer les acteurs de la cybersécurité autour de ses conventions de nommage.
L’entreprise de cybersécurité CrowdStrike identifiera désormais, elle aussi, les menaces émergentes avec des termes inspirés des sciences du climat, à l’image de « tempête de moutarde » ou « typhon de mûres blanches ». Elle vient en effet d’adopter la taxonomie dédiée aux menaces cyber élaborée et utilisée par Microsoft depuis 2023. L’éditeur de Windows indique dans le même temps que Mandiant (Google) et Unit 42 (Palo Alto Networks) contribueront bientôt à cet effort de classification.
Un standard ? Non, un guide de référence
« Les noms nous permettent de comprendre le paysage des menaces et d’organiser les informations sur les comportements connus ou probables des cyberattaquants », explique Microsoft dans un billet d’annonce. Problème : une taxonomie ne vaut que si elle est partagée. Or les acteurs de la cybersécurité ont souvent leurs propres nomenclatures internes, ce qui conduit à ce qu’un même groupe, ou une même menace, soit identifiée sous des appellations différentes, en fonction de l’éditeur dont émane l’alerte.
« L’acteur que Microsoft appelle Midnight Blizzard peut être référencé comme Cozy Bear, APT29, ou UNC2452 par un autre éditeur. Nos clients communs recherchent toujours plus de clarté », argue encore la firme de Redmond, qui se défend de vouloir imposer sa propre taxonomie au marché et préfère parler de « guide de référence » plutôt que de standard. « Cet effort ne vise pas à créer une norme de nommage unique. Il vise plutôt à aider nos clients et la communauté de la sécurité au sens large à harmoniser leurs renseignements plus facilement, à réagir plus rapidement et à garder une longueur d’avance sur les acteurs malveillants ».
Une taxonomie inspirée du climat
Microsoft profite de l’occasion pour mettre à jour sa taxonomie et en expliquer les grands principes. Les émetteurs de menaces cyber sont ainsi rangés selon cinq grandes familles, en fonction de leur origine géographique, de leur mode opératoire, ou d’éventuels objectifs spécifiques.
L’éditeur distingue ainsi en premier lieu les acteurs « nationaux », dont la finalité serait de répondre à des enjeux d’État, notamment en matière d’espionnage ou de surveillance. Dix-sept pays ou autorités étatiques sont distinguées à l’aide d’un nom en rapport avec un phénomène météorologique. Typhoon désigne la Chine, Sandstorm l’Iran, Blizzard la Russie, etc. La France ne fait l’objet d’aucune dénomination particulière, mais les États-Unis sont référencés comme Tornado.
La taxonomie de Microsoft distingue les acteurs de la menace en fonction de leur origine géographique ou de la finalité de leurs actions
Les acteurs ou organisations motivés uniquement par l’appât du gain sont quant à eux rangés dans une catégorie spécifique, associée au nom Tempest. « Cette catégorie comprend les opérateurs de ransomware, les compromissions de mails professionnels, le phishing et d’autres groupes ayant des motivations purement financières ou d’extorsion », décrit l’éditeur.
Microsoft isole les fournisseurs de solutions, ceux qui éditent les outils d’espionnage, de surveillance ou d’offensive cyber, dans une autre catégorie spécifique, baptisée Tsunami. Les groupes chargés de mener des campagnes d’influence ou de manipulation en ligne sont quant à eux rangés à la rubrique Flood (inondation).
« Les acteurs au sein d’une même famille météorologique reçoivent un adjectif pour distinguer les groupes avec des tactiques, techniques et procédures (TTP), une infrastructure, des objectifs ou d’autres modèles identifiés distincts », explique Microsoft. Dans sa taxonomie, un même nom peut donc désigner plusieurs groupes d’attaquants distincts, si ces derniers partagent des objectifs et des méthodes communs. Ainsi, l’éditeur référence sous l’étiquette Diamond Sleet le groupe nord-coréen Lazarus, dont le nom revient régulièrement dans l’actualité cyber, mais aussi toutes ses émanations ou structures voisines.
Enfin, les groupes émergents, dont les objectifs ou la finalité n’ont pas encore été établis, reçoivent une étiquette générique, Storm (orage), associée à un identifiant à quatre chiffres.
Fondé en 2009 par les Ukrainiens Alex Shevchenko, Max Lytvyn et Dmytro Lide, l’outil d’aide à la rédaction en anglais Grammarly lève un milliard de dollars auprès du fonds General Catalyst, au capital de la société depuis 2017.
Initialement pensé pour aider des salariés à écrire sans fautes d’orthographe, Grammarly a fait muter son outil en assistant d’écriture à part entière, avec suggestion de formulations ou de coupes pour produire des textes plus fluides.
Installée en Californie, la société revendique 50 000 clients et 40 millions d’utilisateurs. Avec un chiffre d’affaires annuel de plus de 700 millions de dollars, elle est rentable, souligne Les Échos, mais désormais concurrencée par les outils génératifs comme ChatGPT, Claude ou Gemini.
Avec les fonds obtenus, Grammarly prévoit de diversifier ses produits appuyés sur des technologies d’IA, donc ses revenus. L’entreprise a notamment racheté la plateforme de productivité Coda en décembre.
Les rapports entre Apple et la Commission européenne ne sont pas près de se détendre. Apple refuse les demandes d’ouverture exigées par l’Europe dans le cadre du DMA et refuse de payer son amende de 500 millions d’euros. Pour l’entreprise, ces changements seraient une catastrophe pour la sécurité.
Dans le cadre du DMA, l’Europe a demandé à Apple de se conformer à d’autres exigences, dont l’ouverture de certaines technologies. Ces points avaient été détaillés par la Commission européenne, qui souhaitait qu’Apple ouvre ses notifications aux montres connectées, l’exécution en tâche de fond de certaines tâches, la bascule audio automatique ou encore les transmissions sans fil à courte distance, laissant la possibilité de créer des alternatives à Airdrop.
L’accès aux notifications et aux réseaux Wi-Fi permettrait notamment aux autres montres connectées que l’Apple Watch d’interagir avec l’iPhone sans nécessiter d’actions particulières et de transférer rapidement des lots importants de données. La concurrence réclame, en somme, que ses montres puissent fonctionner avec le même niveau d’intégration que celle d’Apple.
Une question de sécurité, selon Apple
Mais Apple ne veut rien savoir. Selon un porte-parole, ce serait une question de sécurité et de vie privée. « Ces exigences permettront également aux entreprises avides de données d’obtenir des informations sensibles, ce qui pose des risques considérables en matière de confidentialité et de sécurité pour nos utilisateurs de l’UE », affirme Apple.
L’accès aux notifications et aux réseaux Wi-Fi donnerait aux entreprises « la possibilité d’accéder à des informations personnelles que même Apple ne voit pas », a assuré le porte-parole. Les exigences de l’Union en matière d’interopérabilité créeraient « un processus déraisonnable, coûteux et qui étouffe l’innovation ».
« En fin de compte, ces règles profondément erronées qui ne visent qu’Apple – et aucune autre entreprise – limiteront considérablement notre capacité à fournir des produits et des fonctionnalités innovants en Europe, ce qui se traduira par une expérience utilisateur de qualité inférieure pour nos clients européens », a enfin déclaré Apple.
Le DMA et le DSA au cœur des tensions
Son point de vue sur le DMA n’est pas nouveau. Depuis plus d’un an, l’entreprise a plusieurs fois communiqué sur le nouveau cadre européen et ses obligations en tant que gatekeeper (ou contrôleur d’accès). En mars 2024, Apple a notamment publié un argumentaire détaillé sur la baisse générale de sécurité qu’entrainerait le DMA pour les iPhone, qui resteraient néanmoins les smartphones les plus sécurisés du marché.
Si les tensions entre Apple et la Commission européenne sont connues, le débat a pris un tour plus politique depuis les élections américaines. Le retour de Donald Trump à la Maison-Blanche a créé des étincelles avec l’Europe, les grandes entreprises de la tech s’étant largement plaintes de ses régulations au président des États-Unis. Donald Trump avait fait valoir que le DMA et le DSA seraient examinés et que seules des lois américaines devaient régir les entreprises américaines.
Google a publié une nouvelle version de Chrome dans le canal stable pour corriger trois failles de sécurité, dont une déjà exploitée. Une situation urgente qui a justifié la diffusion de cette version, en dehors du cycle habituel des mises à jour.
La faille CVE-2025-5419 a été signalée par deux chercheurs du Threat Analysis Group de Google, Clément Lecigne et Benoît Sevens. Son score de sévérité est de 8,8 et elle est donc considérée comme critique. On ne connait pas exactement son mécanisme d’action, mais on sait qu’il s’agit d’une vulnérabilité de lecture et d’écriture hors limites dans le moteur JavaScript et WebAssembly V8. Une corruption du tas qui peut être exploitée par une page web HTML.
L’entreprise indique être « consciente qu’un exploit pour CVE-2025-5419 existe dans la nature ». Il est donc recommandé d’installer la nouvelle mouture aussi rapidement que possible, la brèche pouvant être exploitée à distance. Tous les navigateurs basés sur Chromium sont concernés, Microsoft ayant par exemple déjà répercuté la correction dans Edge.
Meta prévoit de confier jusqu’à 90 % des évaluations des risques de ses nouveaux produits à des IA. L’entreprise avait, progressivement, été poussée à mettre en place des équipes d’évaluation de ses nouveaux produits pour atténuer leurs conséquences négatives avant leur mise en place sur le marché.
Les produits de Meta ne sont pas exempts de risques pour leurs utilisateurs, loin s’en faut, que ce soit de problèmes liés à la désinformation, à l’utilisation de données privées ou l’exposition des jeunes à des contenus problématiques. Mais l’entreprise a été poussée par certaines instances de régulation comme la Federal Trade Commission à mettre en place quelques garde-fous.
Le scandale Cambridge Analytica a aussi eu un petit effet. À l’époque, l’entreprise avait étendu son programme de recherche de bugs (bug bounty) aux utilisations frauduleuses de données par des applications tierces, par exemple.
De même, dès 2019, l’entreprise a mis en place une « red team » spécialisée sur l’IA, racontait Forbes. En 2023, pour la sortie de Llama 2, les chercheurs de Meta expliquaient avoir travaillé avec 350 personnes pour atténuer les risques, « y compris des experts en cybersécurité, fraude électorale, désinformation dans les médias sociaux, droit, politique, droits civils, éthique, génie logiciel, apprentissage automatique, IA responsable et création littéraire », précisaient-ils.
Automatisation de 90 % des évaluations de risques
L’entreprise prévoirait désormais d’automatiser jusqu’à 90 % des évaluations de risques, selon des documents internes obtenus par le média public américain NPR.
Selon nos confrères, les modifications des algorithmes des différents réseaux sociaux de Meta, les nouveaux dispositifs de sécurité ou les éventuels changements de règles de partages des contenus sur les plateformes de l’entreprise seront approuvés par des systèmes automatisés utilisant de l’intelligence artificielle et ne seront plus débattus en interne par une équipe dédiée.
Dans l’entreprise, ce changement serait vu comme une victoire des responsables produits qui pourront lancer des nouveautés plus rapidement. « Dans la mesure où ce processus signifie fonctionnellement que davantage de produits sont lancés plus rapidement, avec un examen et une opposition moins rigoureux, cela signifie que vous créez des risques plus élevés », explique cependant un ancien responsable de Meta de manière anonyme.
De son côté, l’entreprise assure à la NPR que « l’expertise humaine » sera toujours utilisée pour les « questions nouvelles et complexes » et que seules les « décisions à faible risque » seraient automatisées. Le média étasunien assure que les documents internes qu’il a consultés évoquent l’automatisation de domaines sensibles comme la sécurité des IA, les risques pour les jeunes, et ce que l’entreprise appelle « intégrité » qui englobe les contenus violents et les fausses informations.
Obligée par le DSA, Meta maintient une équipe en Europe
Selon les documents consultés par la NPR, le processus de validation que Meta met en place passerait dans la plupart des cas par un simple questionnaire sur le projet. Les équipes produits recevront une « décision instantanée » automatisée identifiant les risques et les moyens d’y remédier.
Interrogé par NPR, l’ancien directeur du service « Innovation responsable » de Facebook, Zvika Krieger explique que « la plupart des chefs de produit et des ingénieurs ne sont pas des experts en matière de protection de la vie privée et ce n’est pas l’objet de leur travail. Ce n’est pas ce sur quoi ils sont principalement évalués et ce n’est pas ce qui les incite à donner la priorité à la protection de la vie privée ».
En avril, le prestataire de modération Telus a licencié plus de 2000 personnes à Barcelone après avoir perdu le contrat qui le liait à Meta. Cela dit, selon ses documents internes, l’entreprise de Mark Zuckerberg devrait garder une équipe en Europe (en Irlande, où se situe son siège social pour l’UE) pour prendre des décisions sur le lancement de produits et l’utilisation des données utilisateurs au sein de la zone européenne. Le DSA oblige, en effet, les plateformes à porter une plus grande attention à ces sujets.