Après l’introduction de la vue partagée, Google vient de publier une mise à jour de Chrome (version 147) qui permet au navigateur de se mettre au niveau de la concurrence sur deux aspects : la gestion des onglets verticaux, et le mode lecture.
Les onglets verticaux sont particulièrement utiles sur les écrans larges (type 21:9 et autres formats dits ultrawide) puisqu’ils permettent d’afficher une portion plus importante du titre de la page ouverte, facilitant ainsi la navigation ou la recherche d’un onglet précis.
Promis de longue date par Google, les onglets verticaux n’étaient jusqu’ici accessibles qu’après une activation manuelle au niveau du menu des fonctionnalités expérimentales. Ils sont désormais en cours de déploiement pour tous les utilisateurs. L’option correspondante est censée apparaître au clic droit sur la barre d’onglets.
Chrome se met enfin à la page avec des onglets verticaux officiellement pris en charge – capture d’écran Next
La vue verticale dispose d’un mode réduit qui permet de n’afficher que le favicon des différents sites ouverts pour garder un accès direct aux onglets tout en augmentant la surface d’affichage utile. Elle propose logiquement, elle aussi, de créer des groupes d’onglets et d’organiser ces derniers par nom ou par étiquettes de couleur.
Une bonne nouvelle n’arrivant jamais seule, Google profite de l’occasion pour introduire un mode lecture plein écran. Jusqu’ici, l’option correspondante offrait en effet une vue simplifiée de la page en cours (expurgée des éléments graphiques et contextuels) mais uniquement sous forme d’écran partagé. Une façon, pour le moteur de recherche, de préserver le fondement de son modèle économique, puisque le mode lecture fait disparaître la plupart des publicités.
À gauche, l’ancien mode lecture, à droite le mode plein écran introduit par Chrome 147 – captures d’écran Next
Présenté comme « plus immersif », ce mode lecture dispense des options de réglage de la taille de la police, de l’interligne, ou de la couleur de fond, ainsi qu’un mode de lecture vocale (text to speech). Il est par ailleurs présenté comme compatible avec les lecteurs d’écran.
Ces deux options, annoncées par un billet de blog, sont censées être disponibles chez tous les utilisateurs, mais comme toujours, le déploiement se fait de façon échelonnée. Si l’une ou l’autre de ces options n’est pas activée chez vous, rendez-vous dans le menu des fonctionnalités expérimentales via ces deux liens :
Serait-ce enfin l’épilogue ? Dix-sept ans après la publication du fameux livre blanc signé Satoshi Nakamoto et l’essor du phénomène bitcoin, deux journalistes du New York Times affirment être en mesure de certifier l’identité réelle de son créateur. D’après leur longue enquête, tous les éléments convergent vers Adam Back, un cryptographe d’origine britannique âgé de 55 ans.
Pour mettre un nom sur l’un des hommes les plus recherchés au monde, John Carreyrou et Dylan Freedman ont notamment passé au crible les archives de la célèbre mailing list Cypherpunks dont les échanges, inscrits dans le courant de pensée éponyme, ont participé à la création des cryptoactifs en général et de bitcoin en particulier.
Au cours de leurs travaux, les deux journalistes estiment avoir mis au jour des similitudes troublantes entre les échanges signés par Adam Back et ceux attribués à Satoshi Nakamoto. Le premier aurait d’ailleurs disparu quand le second a fait son entrée sur le devant de la scène, avant que le mouvement inverse ne s’opère. En 2011, Nakamoto s’est en effet soudainement tu. Six semaines après sa disparition, Adam Back s’est ensuite exprimé pour la première fois publiquement sur le bitcoin.
Adam Back a démenti mercredi être le créateur de bitcoin – capture d’écran
John Carreyrou, célèbre pour avoir déclenché l’affaire Theranos quand il écrivait encore au Wall Stret Journal exhume quelques déclarations ambivalentes, et souligne comment les travaux préliminaires d’Adam Back ouvraient la voie au bitcoin. L’intéressé a en effet conçu et développé, dès 1997, un système de preuve de travail baptisé Hashcash, initialement pensé pour la lutte contre le spam, et repris ultérieurement dans l’univers bitcoin. Carreyrou retrace également le parcours de Back depuis le lancement de bitcoin, et s’interroge notamment sur les raisons de son installation à Malte, à partir de 2009.
Le gros de l’enquête réside toutefois sur des mécaniques d’analyse du discours assistée par ordinateur, qui mettent en lumière des expressions idiomatiques, des tics de langage, des constructions rhétoriques et des idées que l’on retrouve aussi bien dans les propos signés Adam Back que dans ceux attribués à Satoshi Nakamoto.
L’analyse finale est même purement quantitative : les deux auteurs indiquent avoir créé un corpus regroupant des messages émanant de 620 candidats potentiels à la paternité de bitcoin, et passé cet inventaire au crible des écrits de Nakamoto. Dans le lot, le seul à cocher toutes les cases, de la façon d’écrire email à l’emploi de tournures britanniques plutôt qu’américaines, s’est révélé Adam Black.
Dont acte ? L’intéressé a réagi mercredi 8 avril sur les réseaux sociaux.
« Je ne suis pas Satoshi, mais j’ai été parmi les premiers à me concentrer sur les implications sociétales positives de la cryptographie, de la confidentialité en ligne et de la monnaie électronique, d’où mon intérêt actif, à partir de 1992 environ, pour la recherche appliquée sur la monnaie électronique et les technologies de confidentialité sur la liste de diffusion des cypherpunks, ce qui a conduit à Hashcash et à d’autres idées ».
D’après lui, les liens sémantiques établis par Carreyrou relèveraient de la coïncidence, et d’une proximité de pensée entre des passionnés partageant des centres d’intérêt commun. Et le secret qui entoure la création de bitcoin mériterait d’être défendu : « Je ne sais pas non plus qui est Satoshi, et je pense que c’est une bonne chose pour le bitcoin, car cela contribue à ce qu’il soit perçu comme une nouvelle classe d’actifs, une matière première numérique mathématiquement rare ».
En attendant l’éventuelle transaction réalisée depuis le premier portefeuille en bitcoin de la chaîne, qui ferait sans doute office de preuve irréfutable, le mystère de l’identité de Satoshi Nakamoto n’a donc probablement pas fini de susciter enquêtes et controverses.
Anthropic, éditeur des modèles Claude, a annoncé dimanche un accord d’approvisionnement auprès de Google et de Broadcom destiné à renforcer ses infrastructures de calcul, principalement aux États-Unis. L’entreprise a dans le même temps affirmé avoir atteint 30 milliards de dollars de chiffre d’affaires projeté sur un an, contre 9 milliards de dollars en décembre dernier. Elle serait donc passée devant OpenAI.
Anthropic a profité du week-end de Pâques pour lâcher sa petite bombe à destination des marchés financiers et des investisseurs : au détour d’une communication relative à un nouvel accord pluriannuel avec Google et Broadcom, l’éditeur des modèles Claude a déclaré avoir atteint un volume d’activité suffisant pour pouvoir se projeter sur un chiffre d’affaires annualisé supérieur à 30 milliards de dollars.
Le montant annoncé témoigne d’une croissance aux allures d’exponentielle : Anthropic évoquait en effet une projection de chiffre d’affaires annuel de l’ordre de 9 milliards de dollars en décembre 2025. L’activité aurait donc été multipliée par plus de trois en seulement un trimestre.
« Lors de l’annonce de notre levée de fonds en série G en février, nous avions indiqué que plus de 500 entreprises clientes dépensaient chacune plus d’un million de dollars par an. Aujourd’hui, ce nombre dépasse les 1 000, soit le double en moins de deux mois », ajoute Anthropic. Annoncée le 12 février dernier, cette série G (septième tour de financement depuis l’amorçage) avait permis à l’entreprise de lever 30 milliards de dollars sur la base d’une valorisation de 380 milliards de dollars.
Un chiffre d’affaires annualisé supérieur à celui d’OpenAI ?
Si l’annonce d’Anthropic marque les esprits, c’est aussi et surtout parce que le chiffre d’affaires annuel projeté dépasse, pour la première fois, les indicateurs du grand concurrent OpenAI.
La firme dirigée par Sam Altman se montre généralement plutôt avare en matière de données financières, mais elle vient en effet elle aussi de donner une projection récente. Le 31 mars dernier, elle affirmait ainsi réaliser 2 milliards de chiffre d’affaires par mois, à l’occasion d’un point d’étape sur sa dernière levée de fonds en cours (au montant record de 122 milliards de dollars).
2 * 12, 24 milliards : le rythme actuel de chiffre d’affaires d’OpenAI révèle bien une projection inférieure aux chiffres avancés par son compétiteur.
Arithmétique floue
Dans cette bataille de chiffres superlatifs, il convient toutefois de noter que l’indicateur retenu par Anthropic est particulièrement flou. Dario Amodei et ses équipes parlent d’un run rate supérieur à 30 milliards de dollars par an. Or ce run rate est une extrapolation : on prend le chiffre d’affaires à un instant T, sur la période qui nous arrange, et on le multiplie par la constante nécessaire pour arriver à une projection sur douze mois.
Dit autrement, Anthropic pourrait avoir réalisé une particulièrement bonne journée le 5 avril, et décidé de multiplier ce chiffre d’affaires par 365 pour afficher, sans mentir, une projection annualisée très optimiste.
En face, OpenAI laisse entendre qu’il y a dans ses propres revenus une base de récurrence plus stable. « À la fin de 2024, nous générions 1 milliard de dollars par trimestre. Nous générons désormais 2 milliards de dollars de revenus par mois », écrivait l’entreprise dans son billet du 31 mars.
Du point de vue de l’utilisateur final, cette course à qui a le plus gros chiffre d’affaires n’a sans doute que peu d’intérêt, et l’on sera sans doute nettement plus sensible aux limitations que vient de mettre en place Anthropic autour des abonnements Claude pour encourager le recours aux API facturées au token.
La trajectoire du chiffre d’affaires, réelle ou projetée, intéresse en revanche vivement les investisseurs, soucieux de savoir si et quand OpenAI ou Claude pourront atteindre un volume d’activités suffisant pour compenser leurs faramineuses dépenses d’investissement. Le sujet est d’autant plus critique qu’on prête aux deux fondateurs, Dario Amodei et Sam Altman, l’intention d’introduire leur entreprise en bourse.
Anthropic renforce ses liens avec Google et Broadcom
En attendant, Anthropic revendique des liens consolidés avec les grands acteurs susceptibles de répondre à ses besoins en matière de calcul. L’entreprise indique en effet avoir signé de nouveaux accords avec Google et Broadcom, portant sur l’approvisionnement en TPU (puces dédiées à l’inférence IA) de nouvelle génération à compter de 2027. Elle ne donne aucun chiffre sur les sommes en jeu, la nature exacte de ces puces, ou l’éventuelle puissance électrique qui pourrait leur être nécessaire.
« La grande majorité des nouveaux serveurs seront situés aux États-Unis, ce qui fait de ce partenariat un élargissement majeur de notre engagement pris en novembre 2025 d’investir 50 milliards de dollars dans le renforcement de l’infrastructure informatique américaine », précise tout de même Anthropic. En octobre dernier, la société évoquait l’utilisation d’un million de TPU fournis par Google, principalement via l’offre cloud du géant de la recherche.
« Claude reste le seul modèle d’IA de pointe disponible pour les clients sur les trois plus grandes plateformes cloud du monde : Amazon Web Services (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry) », fait valoir Anthropic. Là encore, l’accent est mis sur un élément susceptible de rassurer les marchés. Dans un contexte d’incertitudes quant à la réalité des investissements promis en matière de datacenters, accentué par les conséquences de la guerre en Iran, la société fait valoir qu’elle est en mesure de s’appuyer sur les trois principaux hyperscalers du marché, quand OpenAI doit ménager les susceptibilités entre son actionnaire historique, Microsoft, et le principal participant à son dernier tour de table, Amazon.
Dans le sillage de l’initiative européenne Stop Killing Games, l’UFC-Que Choisir a lancé des poursuites en justice à l’encontre d’Ubisoft. L’association de consommateurs reproche à l’éditeur français d’avoir fermé les serveurs qui permettaient au jeu The Crew de fonctionner, privant de ce fait les consommateurs de l’usage d’un jeu qu’ils avaient pourtant acheté sans date de fin de vie programmée.
La boucle est bouclée. C’est la fermeture programmée des serveurs du jeu de course The Crew qui a motivé l’émergence de l’initiative européenne Stop Killing Games, en 2024, et c’est quelques semaines après la reconnaissance formelle de cette initiative citoyenne par la Commission européenne qu’une procédure en justice à l’encontre d’Ubisoft voit le jour.
Ubisoft poursuivi pour la fermeture des serveurs de The Crew
En France, c’est l’UFC-Que Choisir qui initie ces poursuites devant le tribunal judiciaire de Créteil. « L’UFC-Que Choisir estime qu’en privant brutalement les joueurs de tout accès à The Crew, Ubisoft a porté atteinte aux droits essentiels des consommateurs », indique l’association dans un communiqué daté du 31 mars.
L’UFC-Que Choisir ne publie pas les éléments de la procédure, mais explique que cette dernière se concentre sur le principe de « licence d’utilisation », derrière lequel se retranchent les éditeurs de jeux vidéo pour, parfois, révoquer l’accès à un contenu.
« La licéité de toutes les clauses limitant les droits des joueurs doit être interrogée », affirme l’association, qui souhaite voir la justice s’exprimer sur la négation du droit de propriété conféré à l’acheteur d’un jeu, mais aussi sur cette faculté de retirer l’accès au contenu sans garantie de maintien d’un mode de fonctionnement alternatif.
Elle interroge également la subordination de l’utilisation du jeu à des services en ligne susceptibles d’être interrompus, et une pratique commerciale moins spécifiquement liée à The Crew : le refus de rembourser les sommes créditées par des joueurs sur leur compte en ligne.
Une partie de la charge porte également sur ce que l’association qualifie de pratique commerciale trompeuse : « les joueurs n’ont jamais été loyalement informés sur le caractère éventuellement temporaire de l’accès au jeu qu’ils achetaient ».
Toute la subtilité réside ici dans l’appréciation du caractère loyal de cette information. À la date de publication de cet article, le 3 avril 2026, les conditions d’utilisation d’Ubisoft disposent par exemple explicitement que l’éditeur peut modifier les contenus et services associés à ses jeux, notamment « afin de limiter ou d’interrompre les fonctionnalités obsolètes ou non viables du Contenu et/ou des Services lorsque cela est raisonnable ».
« Sauf indication contraire de notre part, nous ne garantissons pas la disponibilité d’un Service ou d’un Contenu pendant une période déterminée », énoncent encore ces conditions d’utilisation.
Les éditeurs à l’unisson
L’enjeu n’est pas anodin pour les éditeurs, puisque le maintien en conditions opérationnelles d’un jeu dépendant de services en ligne suppose des coûts. Le secteur s’était d’ailleurs exprimé de façon coordonnée sur le sujet en juillet dernier, quand la mobilisation autour de Stop Killing Games battait son plein, par l’entremise de sa représentation européenne, Videogames Europe :
« Nous apprécions l’enthousiasme de notre communauté ; cependant, la décision d’interrompre les services en ligne est complexe, jamais prise à la légère, et doit être une option pour les entreprises lorsqu’une expérience en ligne n’est plus commercialement viable. Nous comprenons que cela puisse être décevant pour les joueurs, mais, le cas échéant, le secteur veille à ce qu’ils soient informés des changements envisagés, conformément à la législation locale sur la protection des consommateurs ».
À cette occasion, les éditeurs avaient battu en brèche l’idée de laisser prospérer des serveurs privés gérés par la communauté :
« Les serveurs privés ne constituent pas toujours une alternative viable pour les joueurs, car les protections mises en place pour sécuriser leurs données, supprimer les contenus illégaux et lutter contre les contenus communautaires dangereux seraient inexistantes et les détenteurs de droits seraient tenus responsables. De plus, de nombreux jeux sont conçus dès le départ pour être exclusivement joués en ligne ; de fait, ces propositions limiteraient la liberté de choix des développeurs en rendant la création de ces jeux vidéo excessivement coûteuse. »
En attendant l’examen de ce dossier par le tribunal judiciaire de Créteil, la question de la pérennité des jeux vidéo est désormais posée auprès de la Commission européenne. Saisie suite à une pétition au succès historique avec près de 1,3 million de signatures validées au moment de son enregistrement, elle est censée produire, d’ici au 27 juillet 2026, une réponse écrite listant ses éventuelles décisions en la matière.
Rappelons que l’UFC-Que Choisir a mené pendant près de dix ans un combat juridique contre Valve, l’éditeur de la plateforme Steam, pour tenter d’obtenir la suppression d’un certain nombre de clauses qu’elle considérait comme abusives, telles que l’impossibilité de revendre un jeu dématérialisé. Elle fondait à l’époque sa requête sur la règle juridique de « l’épuisement des droits ». Défaite devant la cour de cassation en octobre 2024, l’association a saisi la Commission européenne d’un recours en manquement en février 2025.
Google a annoncé jeudi 2 avril la prise en charge de Meet, son client de visioconférence, au sein de l’environnement Apple CarPlay :
« Cette fonctionnalité est conçue pour assurer une transition fluide entre votre appareil mobile iOS et votre véhicule, vous permettant ainsi de ne jamais manquer une conversation importante. Que vous soyez en trajet domicile-travail ou entre deux rendez-vous, vous pouvez désormais rejoindre des réunions d’un simple clic, consulter votre agenda et participer à des appels audio pour rester concentré sur la route. »
Google mentionne spécifiquement la nature audio uniquement des échanges pour lever tout soupçon : cette implémentation de Meet pour CarPlay n’autorise logiquement pas la vidéo, en émission comme en réception. Elle permet en revanche d’accéder aux réunions programmées directement sur l’écran de sa voiture.
Google Meet s’invite sur Apple CarPlay – crédit Google
La fonctionnalité est tournée en priorité vers les clients Google Workspace, mais elle est aussi accessible aux particuliers qui se connectent à des réunions Meet via un compte Google personnel, indique l’entreprise. Elle souligne par ailleurs qu’une version de Meet dédiée à Android Auto sera « bientôt » disponible.
Si Apple a été servi avant l’environnement maison, c’est probablement parce que Google a souhaité surfer sur l’introduction, via iOS 26.4, de nouveaux contrôles vocaux destinés à CarPlay. OpenAI a également saisi la balle au bond, en rendant l’application iOS ChatGPT accessible sur l’écran de bord. Le système n’autorise en revanche que des interactions vocales et audio.
OpenAI met un pied dans le monde des médias avec l’acquisition, annoncée jeudi 2 avril, de la chaîne tech TBPN, centrée sur la tech et l’univers de la Silicon Valley. TBPN, dont le talk show principal serait l’émission préférée de Sam Altman, doit permettre à l’entreprise d’accélérer la « conversation globale autour de l’IA ».
Ils alternent, selon les jours, entre la cravate, les polos de sport ou la veste de costume blanche, lisent l’édition papier du Wall Street Journal les pieds sur leur table jonchée de canettes de soda et sont à tu et à toi avec tout ce que la tech compte d’entrepreneurs en vue : bienvenue sur la chaîne TBPN (pour Technology Business Programming Network).
Une chaîne à la gloire de la Silicon Valley
Lancée fin 2024, TBPN diffuse chaque jour, pendant trois heures et en direct, une succession de séquences de commentaires d’actualités et d’interviews, principalement de fondateurs de startups. Sous leurs airs de yuppies, leurs vannes et le ton détendu, les deux animateurs revendiquent une approche soutenue sur le fond, légitimée par leur propre parcours. John Coogan et Jordi Hays ont en effet eux-mêmes créé plusieurs startups.
Jordi Hays et John Coogan présentent TBPN à raison de trois heures par jour – crédit TBPN
Âgés de respectivement 36 et 29 ans, ils affichent aussi et surtout une posture résolument pro-business. Les levées de fonds sont célébrées à coups de gong, les fondateurs invités sont exhortés à aller plus vite, plus loin, plus fort, et le duo ne se prive pas de jouer la carte de la provocation. Il envisageait d’ailleurs initialement d’appeler son émission Technology Brothers, en réaction au terme « tech bro », désormais connoté de façon négative. Vanity Fair résume leur état d’esprit dans un portrait publié en janvier dernier :
« Sur TBPN, le conflit d’intérêt est un atout, pas un défaut. Les deux animateurs sont chacun fortunés grâce à des cessions d’entreprises valant plusieurs millions de dollars et à des investissements providentiels. Ils savent ce que c’est que de lever des fonds d’amorçage, de finaliser une cession, d’évaluer une offre publique d’achat. Ils échangent régulièrement des SMS avec la moitié de la Silicon Valley. Ils évoquent nonchalamment les fêtes de Noël chez Thiel. »
Passé au format quotidien en janvier 2025, le carnet de bal des deux animateurs s’enorgueillit d’invités très prestigieux : Satya Nadella (Microsoft), Mark Zuckerberg (Meta), Marc Benioff (Salesforce), Alex Karp (Palantir) ou Sam Altman sont par exemple passés par son plateau pour commenter l’actualité du moment et, parfois, dévoiler quelques orientations stratégiques.
Et ça marche : d’après le Wall Street Journal, TBPN emploierait aujourd’hui onze personnes et serait rentable, avec environ 5 millions de dollars de chiffre d’affaires publicitaire en 2025, et une projection à plus de 30 millions de dollars pour 2026. Le show fédère déjà des annonceurs de premier plan : Shopify, Plaid, CrowdStrike, AppLovin ou Google pour Gemini font partie des sponsors, indique Adweek. En décembre 2025, consécration institutionnelle : il signe un partenariat avec la bourse de New York, qui relaie certains de ses programmes.
Les audiences sont relativement modestes, de l’ordre de 70 000 spectateurs par émission selon le WSJ, mais elles semblent suffisamment qualifiées pour que The Free Press qualifie TBPN de show le plus influent de la Silicon Valley en septembre 2025.
OpenAI s’offre un levier d’influence
« TBPN a construit quelque chose de vraiment spécial », salue Fidji Simo, la numéro deux d’OpenAI, en annonçant l’acquisition de la chaîne jeudi 2 avril.
Pourquoi racheter une chaîne YouTube alors que les propos de Sam Altman et les communications d’OpenAI sont déjà relayés, commentés et amplifiés par les médias du monde entier ?
« Nous ne sommes pas une entreprise comme les autres. Nous sommes à l’origine d’une véritable révolution technologique. Et notre mission, qui est de faire en sorte que l’intelligence artificielle générale profite à toute l’humanité, nous impose la responsabilité de contribuer à créer un espace de dialogue constructif et authentique sur les changements induits par l’IA, en plaçant au cœur de cette démarche les développeurs et les utilisateurs de cette technologie », écrit Fidji Simo.
Elle promet par ailleurs que l’équipe TBPN gardera son indépendance et sa liberté de ton, et affirme que les talents de communicants et les « instincts marketing » de John Coogan et Jordi Hays serviront à nourrir les équipes et les travaux d’OpenAI.
« TBPN est mon émission tech préférée. Nous voulons qu’ils continuent sur cette lancée et qu’ils fassent ce qu’ils font si bien. Je ne m’attends pas à ce qu’ils y aillent plus mollo avec nous, et suis sûr que je ferai ma part pour les y aider avec des décisions stupides à l’occasion », affirme de son côté Sam Altman.
« Bien que nous ayons parfois été critiques envers le secteur, après avoir fait la connaissance de Sam et de l’équipe d’OpenAI, ce qui nous a le plus marqués, c’est leur ouverture aux suggestions et leur engagement à réussir. Passer des simples commentaires à un impact concret sur la manière dont cette technologie est diffusée et comprise à l’échelle mondiale est extrêmement important pour nous », commentent les deux protagonistes du show.
La sortie de la première bêta d’Ubuntu 26.04 s’accompagne d’une petite info passée inaperçue au moment de la publication : Canonical a discrètement révisé à la hausse la quantité de mémoire vive recommandée pour le bon fonctionnement sur un poste de travail.
Les notes de version qui préparent la sortie de la version finale, programmée au 23 avril prochain, indiquent en effet qu’Ubuntu Desktop 26.04 LTS exige au minimum un processeur double cœur cadencé à 2 GHz, 25 Go d’espace de stockage et 6 Go de mémoire vive.
La dernière version LTS (Long Term Support, avec cinq ans de support garanti et cinq ans de support optionnel) affichait des exigences similaires en matière de processeur et de stockage, mais elle se contentait de 4 Go de mémoire vive.
Fonds d’écran Ubuntu Resolute Raccoon
Cette révision à la hausse ne signifie pas qu’Ubuntu 26.04 ne fonctionnera pas sur des machines équipées de moins de 6 Go de mémoire vive. OmgUbuntu, qui s’est le premier fait l’écho de cette découverte, y voit plutôt une forme de constat honnête. Les besoins intrinsèques au système d’exploitation n’ont pas particulièrement évolué, mais la configuration recommandée doit prendre en compte l’évolution des usages.
Avec toujours plus de multitâche, et la propension de certaines applications courantes à consommer toujours plus de mémoire vive, 6 Go peuvent en effet apparaître comme un minimum recommandé pour exploiter de concert l’environnement par défaut (GNOME 50), un navigateur Web et les applications courantes du quotidien.
En ces temps marqués par une envolée des prix de la mémoire vive, qui conduit par exemple à des hausses de tarif significatives sur la gamme des mini-PC Raspberry Pi, certains y verront peut-être un signal supplémentaire pour penser sobriété numérique, quitte à basculer d’Ubuntu vers des distributions plus légères, voire minimalistes, notamment s’il s’agit de redonner vie à une machine un peu ancienne.
En pratique, la bêta d’Ubuntu 26.04 consomme environ 1,4 Go de mémoire vive au repos, témoigne un internaute sur Reddit.
Notons que les exigences affichées sont nettement moindres pour l’édition Ubuntu Server 26.04 LTS, puisqu’elles démarrent à 1,5 Go de mémoire vive et 4 Go d’espace de stockage.
SpaceX a déposé les documents préliminaires nécessaires auprès de la SEC, mais elle a choisi pour l’instant d’en garder les principales dispositions confidentielles. L’entreprise viserait une levée de fonds de l’ordre de 75 milliards de dollars, un montant sans précédent dans l’histoire.
SpaceX avance à pas feutrés, mais pressés, vers Wall Street. L’information n’a pas encore été rendue publique, mais elle est confirmée à Bloomberg par deux sources proches du dossier, selon qui l’entreprise spatiale d’Elon Musk a bien déposé les documents préliminaires auprès de l’US Securities and Exchange Commission (la SEC, gendarme états-unien de la bourse).
Une IPO réalisée en juin 2026
D’après Bloomberg, SpaceX viserait une introduction en bourse (IPO) aux alentours du mois de juin 2026, ce qui laisse donc à l’entreprise encore quelques semaines avant d’officiellement sortir du bois. Aux États-Unis, la loi Jobs Act autorise en effet une entreprise non cotée à procéder à un dépôt d’informations confidentielles pour ajuster son dossier en fonction des retours de la SEC et commencer les négociations avec les banques et autres établissements qui vendront la portion de capital ouverte aux marchés, sans pour autant exposer ses données financières à la concurrence.
Difficile toutefois de conserver le secret sur une opération pressentie comme la plus importante introduction boursière de tous les temps. SpaceX aurait en effet déjà démarché un large panel de banques, aux États-Unis, en Europe et en Asie, qui seront chargées de négocier avec les investisseurs institutionnels locaux d’éventuelles entrées au capital.
Le Financial Times évoque lui aussi une opération planifiée pour le mois de juin, mais les deux médias économiques avancent des hypothèses différentes en ce qui concerne la part de flottant (c’est-à-dire le volume d’actions proposées à l’échange direct sur les marchés boursiers). Le FT croit ainsi savoir que SpaceX se limiterait à 5 % de flottant, quand Bloomberg parle d’une proportion susceptible de monter à 30 % du capital de l’entreprise.
Au moins 75 milliards de dollars levés
D’après Reuters, SpaceX a déjà planifié une réunion sur son site texan avec les analystes financiers le 21 avril prochain, et prévoit dans la foulée d’organiser une visite du site de Memphis où sont installés les supercalculateurs de xAI, l’entreprise d’IA d’Elon Musk récemment fusionnée avec SpaceX, qui a déjà réuni 20 milliards de dollars en début d’année pour accélérer leur extension. Un webcast faisant office de communication vers le reste du monde serait également programmé au 4 mai.
SpaceX devrait logiquement présenter lors de ces événements les modalités de son IPO, le nombre d’actions mis en circulation et enfin le prix unitaire de ces actions au lancement. Depuis des mois, les commentateurs spéculent sur la valorisation et la levée de fonds qui en découleraient. Toutes les rumeurs convergent vers un objectif de 75 milliards de dollars de capitaux frais réunis par SpaceX, avec une valorisation qui se situerait aux alentours de 1 750 milliards de dollars. SpaceX éclipserait ainsi largement l’IPO de Saudi Aramco, et propulserait au passage la fortune personnelle d’Elon Musk (représentée par sa participation au capital de ses entreprises) vers de nouveaux records.
Le rapprochement entre SpaceX et X / xAI participerait de cette ambition, tout comme l’annonce du projet Terafab, qui en dépit de ses objectifs chiffrés démesurés, souligne bien la volonté d’Elon Musk de créer un continuum, le plus intégré possible, entre ses différentes entreprises. Reste à en conserver le contrôle. Sur ce point, SpaceX envisagerait une structure à double classe d’action (comme la plupart des grandes entreprises de la tech), qui confèrerait à son fondateur et principal actionnaire un pouvoir de contrôle important, voire la majorité des droits de vote.
Entre demandes record et tensions géopolitiques, les prix de la mémoire vive tutoient toujours des plus hauts historiques et la fondation Raspberry Pi vient d’acter, une fois de plus, le phénomène, en annonçant une hausse de prix assez significative sur la plupart de ses cartes et micro-ordinateurs.
Pour un Raspberry Pi 5 16 Go (déclinaison lancée en janvier 2025 à 120 dollars), la hausse de prix s’établit à 100 dollars, soit un quasi doublement. Pour les modèles les plus courants, les Raspberry Pi 4 et 5 équipés de 4 Go de mémoire vive, la hausse est fixée à 25 dollars.
La hausse appliquée sur les différents modèles est résumée dans le tableau ci-dessous, publié mercredi 1ᵉʳ avril par la fondation.
Hausse de prix des principales références Raspberry Pi annoncée le 1er avril 2026
Ces tarifs ont déjà été répercutés et même parfois accentués par les revendeurs officiels qui travaillent avec la fondation. Chez le français Kubii, un Pi 5 16 Go s’affiche désormais à 369 euros, contre 130,50 euros pour la version 4 Go et 51,60 euros pour le modèle de base à 1 Go. En plus des hausses, le revendeur Reichelt précise sur la page du Raspberry Pi 5 que, « en raison des pénuries d’approvisionnement et de prix de la mémoire accrue, ce produit est disponible en quantités limitées, avec un maximum de 10 unités par client ».
La fondation Raspberry Pi souligne elle aussi l’intérêt de privilégier les modèles les plus abordables, et invite de ce fait les utilisateurs à dimensionner correctement leurs besoins en mémoire vive. Elle annonce d’ailleurs à cette occasion le lancement d’une déclinaison 3 Go de son Raspberry Pi 4, affichée à 83,75 dollars.
Le Raspberry Pi 4 se décline maintenant en version 3 Go
« Nous avons pu maintenir le prix du Raspberry Pi 400 avec 4 Go de mémoire à 60 dollars, et celui des versions 1 Go et 2 Go des Raspberry Pi 4 et Raspberry Pi 5 entre 35 et 65 dollars. Ce sont des ordinateurs Raspberry Pi modernes, performants et polyvalents, proposés à des prix abordables », fait-elle valoir. Les produits plus anciens, équipés de DDR2, restent quant à eux à prix inchangé.
Une hausse de prix avait déjà été annoncée début février, tandis que le Raspberry Pi 4 a été mis à jour pour introduire une « Dual RAM variant » destinée à simplifier l’approvisionnement en autorisant l’intégration de deux puces mémoire au lieu d’une.
La guerre des satellites aura bien lieu. D’après le Financial Times, Amazon a engagé des discussions portant sur l’acquisition de Globalstar, l’opérateur satellite qui fournit à Apple, depuis 2022, les appels d’urgence intégrés à ses téléphones et montres connectées. Les négociations se révéleraient toutefois particulièrement complexes d’après le quotidien économique, précisément à cause d’Apple.
La firme de Cupertino n’est en effet pas qu’un simple client : elle détient 20 % du capital de Globalstar depuis 2024. L’acquisition s’était faite pour 400 millions de dollars, et elle s’accompagnait d’une promesse d’investissement, à hauteur de 1,1 milliard de dollars, dans les capacités de Globalstar.
En échange, Apple obtenait une participation dans le réseau de Globalstar, mais aussi et surtout la promesse (formalisée dans les documents boursiers de l’époque) de disposer de 85 % de la capacité de l’opérateur pour assurer la qualité de service à destination de ses propres appareils.
Apple pourrait être la pomme de discorde de l’acquisition supposément en cours – illustration Flock
L’opération risque donc de se révéler doublement complexe. D’abord, parce qu’Apple cherchera logiquement à valoriser au maximum sa participation passive en cas de transaction. Ensuite, parce que l’entreprise cherchera à défendre l’engagement capacitaire pris par Globalstar lors de la signature de l’accord de 2024.
Pour Amazon, l’enjeu serait logiquement de renforcer sa constellation Leo (ex-Kuiper), concurrente de Starlink, qui vient d’ailleurs de remporter deux contrats avec les compagnies aériennes Delta Airlines et Jetblue, pour un accès à Internet en vol.
Aucune des parties prenantes n’a pour l’instant confirmé les discussions. La vente de Globalstar, fondée en 1991 et cotée à Wall Street, avait déjà été évoquée en octobre 2025 par Bloomberg, qui citait alors SpaceX comme acquéreur potentiel.
En attendant le dénouement, Globalstar fait l’objet d’une vive spéculation en bourse, et voit son cours atteindre des sommets sans précédent. L’entreprise est ainsi valorisée aux alentours de 9 milliards de dollars. Elle a réalisé en 2025 un chiffre d’affaires de 273 millions de dollars.
Apple vient d’étendre la disponibilité de son récent correctif iOS / iPadOS 18.7.7, publié le 24 mars dernier, à un éventail d’appareils récents allant jusqu’à l’iPhone 16 ou l’iPad Pro M4. Cette décision, formalisée le mercredi 1ᵉʳ avril, est motivée par la volonté d’offrir un correctif à la désormais fameuse vulnérabilité DarkSword, déjà exploitée par un logiciel malveillant sophistiqué visant les iPhone.
« Nous avons étendu la disponibilité d’iOS 18.7.7 à davantage d’appareils le 1ᵉʳ avril 2026, afin que les utilisateurs ayant activé les mises à jour automatiques puissent bénéficier automatiquement d’importantes protections de sécurité contre les attaques web de type DarkSword. Les correctifs liés à la faille DarkSword ont été initialement déployés en 2025 », précise Apple dans la note de version dédiée.
iOS 18 introduisait les fonctions Apple Intelligence – crédit Apple
Le correctif daté de 2025 qu’évoque Apple prend en réalité corps dans la version 26 d’iOS, publiée fin septembre à l’occasion du renouvellement annuel de sa gamme de smartphones. Problème : une partie des utilisateurs d’iPhone de génération précédente ne souhaitent pas nécessairement migrer vers la dernière version en date du système, qui introduisait pour mémoire l’interface Liquid Glass.
C’est à ces derniers, restés sous iOS 18 (ou iPadOS 18) que s’adresse ce correctif. La rustine prend donc la forme d’un rétroportage (backport), c’est-à-dire la transposition d’une mise à jour à une version plus ancienne du logiciel auquel elle était initialement destinée.
Six mois après la précédente, une nouvelle vague de licenciements a été engagée au sein des équipes d’Oracle. Certains employés ont été avertis par email que leur poste a été « supprimé » de l’organisation. Les estimations et les témoignages évoquent des coupes comprises entre 10 000 et 30 000 postes. Oracle ne s’est pour l’instant pas exprimé.
Oracle a enclenché un nouveau round de licenciements, dont le périmètre exact est encore difficile à déterminer. Cette salve intervient six mois seulement après la précédente, et elle en reprend le mode opératoire : les employés concernés évoluent dans toutes les divisions de l’entreprise, et sont prévenus par email, de façon plus ou moins laconique selon les cas.
Jusqu’à 30 000 postes concernés ?
Business Insider a reproduit par exemple mardi 31 mars un courrier électronique annonçant une suspension de poste sans préavis. « Après mûre réflexion et compte tenu des besoins actuels d’Oracle, nous avons décidé de supprimer votre poste dans le cadre d’une restructuration plus large. Par conséquent, aujourd’hui est votre dernier jour de travail », indique ce message signé Oracle Leadership.
D’autres témoignages (partagés sur Reddit, origine non vérifiée) montrent que certains employés ont reçu des messages légèrement différents dans la forme, mais similaires sur le fond : le poste concerné n’est plus considéré comme indispensable à l’entreprise, et se voit donc supprimé sans délai.
Comme en septembre dernier, la question se pose de savoir quelle est l’ampleur réelle de cette réduction d’effectifs. Oracle n’a pour l’instant pas communiqué via ses canaux officiels. L’entreprise a toutefois dû signaler formellement certains de ses licenciements pour des raisons réglementaires. Reuters remarque par exemple que l’entreprise a déclaré 491 suppressions de postes dans l’État de Washington et dans ses bureaux de Seattle en raison du Worker Adjustment and Retraining Notification (WARN) Act.
En Inde, où Oracle emploie aujourd’hui environ 30 000 personnes, plusieurs sources évoquent le chiffre de 12 000 licenciements au sein d’Oracle IDC (India Development Centre), le centre chargé notamment du développement de NetSuite, l’ERP du groupe, mais ce chiffre n’a pas été confirmé.
Du cash flow pour les investissements dans l’IA
Le groupe présidé par Larry Ellison, qui comptait 162 000 employés dans le monde d’après son dernier rapport annuel de mai 2025, a toutefois laissé entrevoir des signes avant-coureurs dans sa dernière communication financière à destination de la SEC, le gendarme de la bourse des États-Unis. Datée du 10 mars dernier (PDF), celle-ci indique en effet qu’Oracle prévoit une enveloppe totale de 2,1 milliards de dollars de frais de restructuration pour son année fiscale 2026, et qu’il en a pour l’instant dépensé 982 millions sur les trois premiers trimestres de l’exercice concerné.
L’ampleur de ces provisions laisse imaginer un plan de licenciements susceptible de concerner jusqu’à 30 000 personnes dans le monde, estiment certains commentateurs. Une telle réduction d’effectifs se traduirait par une augmentation de la trésorerie disponible d’Oracle de l’ordre de 8 à 10 milliards de dollars. De quoi soutenir le financement des projets pharaoniques d’infrastructures engagés par le groupe, aux côtés notamment d’OpenAI, qui constituent à la fois le cœur de sa politique d’investissements, mais aussi de ses débouchés commerciaux, puisqu’Oracle affiche un carnet de commandes de l’ordre du demi-millier de milliards de dollars.
Bull, marque historique du calcul informatique, a définitivement tourné la page Atos :l’Étata annoncé mardi 31 mars avoir finalisé le rachat de l’ex-division supercalcul du groupe informatique, sur la base d’une valeur d’entreprise qui pourrait atteindre 404 millions d’euros, en fonction de la réalisation de certains objectifs (non communiqués).
« Cette opération constitue une étape majeure pour la souveraineté technologique française et européenne, en particulier dans les domaines du calcul haute performance, de l’intelligence artificielle et du quantique », vante Bercy.
L’État s’était positionné dès fin 2024 comme un repreneur potentiel des activités supercalcul d’Atos, alors que le groupe de services informatiques entrait dans une période de tourmente boursière et financière sur fond de tentative de rachat manquée. L’intention s’était transformée en offre ferme en juin 2025.
Logo Bull
La démarche visait selon Bercy à préserver une activité qualifiée de critique dans la mesure où Atos, via sa division supercalcul, équipait la Défense (notamment pour la simulation nucléaire) et certains grands acteurs de l’industrie française.
Fin janvier, le nouvel actionnaire avait acté sa décision de relancer la marque Bull, quasi-centenaire, pour porter ces activités qui représenteraient aujourd’hui « plus de 3 000 professionnels et experts, pour la moitié basée en France » et un chiffre d’affaires de l’ordre de 720 millions d’euros en 2025.
Bull, sous son ancienne casquette Atos Eviden, est notamment intervenue récemment dans la fabrication du supercalculateur allemand Jupiter, et participe à la création du supercalculateur Alice Recoque qui doit mobiliser à lui seul un budget de 554 millions d’euros sur cinq ans. Ce dernier doit en effet être construit sur la base de la plateforme BullSequana XH3500, puis équipé de GPU AMD Instinct MI430X, pour viser une puissance de calcul de l’ordre de l’exaflops en double précision.
« L’entrée de l’État au capital de Bull apporte à l’entreprise un actionnaire public de long terme, garant de la stabilité, de la continuité stratégique et de la préservation de compétences critiques au service d’une filière française et européenne d’excellence », affirme Bercy.
OpenAI annonce avoir conclu sa dernière levée de fonds sur un montant revu à la hausse : 122 milliards de dollars, pour une valorisation totale désormais estimée à 852 milliards de dollars. L’entreprise affirme désormais engranger 2 milliards de dollars de chiffre d’affaires par mois et revendique une croissance quatre fois supérieure à celle d’Alphabet ou de Meta.
Les investisseurs semblent toujours enclins à suivre Sam Altman dans sa course au gigantisme. OpenAI a en effet annoncé mardi 31 mars avoir conclu son dernier tour de table, un an précisément après sa levée de fonds de 40 milliards de dollars au printemps 2025.
La levée de fonds partait sous des auspices favorables, avec 110 milliards de dollars promis par Amazon, Softbank et NVIDIA, pour une valorisation fixée à 730 milliards de dollars. Elle se termine finalement sur des indicateurs en hausse : OpenAI revendique en effet désormais des engagements à hauteur de 122 milliards de dollars, sur la base d’une valorisation post-money (après réalisation de l’augmentation de capital) de 852 milliards de dollars.
Une ouverture indirecte aux investisseurs particuliers
Dans sa communication, OpenAI affirme clairement voir dans cette surallocation un message de confiance de la part du secteur financier. Outre les trois acteurs déjà mentionnés, le tour réunit 25 fonds d’investissements et gestionnaires d’actifs, parmi les plus grands noms du secteur, dont Sequoia Capital, Thrive Capital, Andreessen Horowitz (a16z), D.E. Shaw & Co, Blackrock, Blackstone, etc. Aux côtés de ces acteurs principalement états-uniens, on note la présence de MGX, fonds d’investissement adossé aux Émirats arabes unis, et de Temasek, le fonds souverain de Singapour.
Au sein de cette enveloppe, trois milliards de dollars émanent indirectement d’investisseurs particuliers, par l’intermédiaire de trois banques privées avec lesquelles OpenAI a passé un accord de distribution. L’entreprise annonce par ailleurs avoir passé un accord avec le gestionnaire d’actifs ARK Invest pour que celui-ci intègre des titres OpenAI à certains de ses fonds de placement cotés (ETF). Une manœuvre que l’on pourrait interpréter comme un galop d’essai, afin de jauger l’intérêt du public pour la future action OpenAI si l’introduction en bourse devait aller à son terme.
L’infrastructure comme avantage stratégique
OpenAI profite de cette communication pour actualiser ses chiffres : ChatGPT compterait maintenant plus de 900 millions d’utilisateurs actifs par semaine, dont plus de 50 millions d’abonnés payants. Le trafic web et mobile de ChatGPT, exprimé en visites mensuelles, serait également six fois supérieur à celui de la deuxième application d’IA du marché (dont OpenAI ne précise pas le nom), et quatre fois supérieur à celui de tous les concurrents combinés.
« À ce stade, notre chiffre d’affaires croît quatre fois plus vite que celui des entreprises qui ont façonné les ères d’Internet et du mobile, notamment Alphabet et Meta », clame OpenAI.
Le marché entreprises représenterait quant à lui 40 % du chiffre d’affaires revendiqué. L’utilisation de ChatGPT par API se chiffrerait à 15 milliards de tokens par minute, et Codex, l’outil dédié aux développeurs, compterait 2 millions d’utilisateurs hebdomadaires.
Les expérimentations liées à la publicité porteraient quant à elles déjà leurs fruits, avec 100 millions de dollars en revenu annuel récurrent atteints en seulement six semaines. « Il ne s’agit pas seulement d’étapes de croissance importantes, mais aussi de la preuve que l’IA de pointe fait désormais partie du quotidien des gens du monde entier ».
Paradoxe de Jevons assumé
De quoi justifier, pour OpenAI, une stratégie toujours plus offensive d’investissement dans les infrastructures, qui assume une logique en droite ligne avec les préceptes du paradoxe de Jevons :
« À chaque nouvelle génération d’infrastructure, nous entraînons des modèles plus performants, rendant chaque token plus intelligent qu’auparavant. Parallèlement, les améliorations algorithmiques et matérielles réduisent le coût de service de chaque token, diminuant ainsi le coût par unité d’intelligence. Cette intelligence accrue rend l’IA utile pour des flux de travail plus complexes, ce qui augmente son utilisation, stimule la demande de calcul et accélère le cycle de croissance.
Il en résulte un effet cumulatif : une infrastructure et des modèles plus performants réduisent le coût de déploiement, tandis que des produits améliorés et un déploiement plus poussé en entreprise augmentent le revenu par unité de calcul. À mesure que l’utilisation augmente et que la plateforme gagne en maturité, cela génère un effet de levier opérationnel significatif au fil du temps. »
Le message ne sera sans doute pas de nature à rassurer ceux qui déplorent la course au gigantisme en matière d’infrastructures, ou qui craignent que les promesses d’investissements conditionnées à des perspectives de commandes finissent par faire éclater une possible bulle de l’IA.
Il confirme en revanche, s’il en était besoin, l’ambition d’OpenAI de se positionner comme le fournisseur d’une « superapp IA unifiée », autrement dit un ChatGPT capable de répondre à l’ensemble des demandes, qu’il s’agisse de requêtes grand public, de flux de travail spécialisés, de code ou de faire tourner des agents. Une approche quasi hégémonique qui paradoxalement servira peut-être à consolider le discours d’acteurs faisant le choix de modèles de pointe spécialisés, à l’image de Mistral AI.
Proton a annoncé coup sur coup mardi le lancement d’une solution de visioconférence, Proton Meet, et la réunion de ses différents services destinés aux professionnels sous une nouvelle marque ombrelle, Proton Workspace. Celle-ci est bien sûr présentée comme une alternative européenne aux ténors du secteur que sont Office 365 ou Google Workspace.
Le suisse Proton avance ses pions sur le terrain très médiatisé de la « souveraineté » avec l’annonce d’une nouvelle offre commerciale baptisée Proton Workspace. Celle-ci prend la forme d’un abonnement unique, pour accéder aux principales composantes de l’offre de service développée par l’entreprise.
Proton Workspace, à partir de 12,99 euros par mois
« Récemment, la demande pour les solutions professionnelles de Proton a explosé et les entreprises sont passées de l’utilisation de services individuels à l’adoption de notre écosystème complet et en constante expansion. C’est pourquoi nous lançons aujourd’hui Proton Workspace : une suite entièrement intégrée qui regroupe tous les services de Proton axés sur la protection de la vie privée au sein d’une offre unique », résume Andy Yen, CEO de l’entreprise.
Autrement dit, les différentes briques Proton restent disponibles à la carte, mais l’hébergeur les package pour simplifier la lecture de son offre. La formule Workspace Standard réunit ainsi Proton Mail, l’activité de messagerie historique, l’Agenda, le Drive, les outils Docs et Sheets, le VPN, le gestionnaire de mots de passe, et la nouvelle solution de visioconférence Meet (voir plus bas).
L’abonnement est affiché à 14,99 euros par mois sans engagement, et passe à 12,99 euros par mois en facturation annuelle. Il donne droit à 1 To d’espace de stockage et 15 domaines de messagerie personnalisés.
Proton affiche désormais trois abonnements principaux, Mail et les deux formules Workspace – capture d’écran Next
Proton ajoute une formule Workspace Premium à 24,99 euros par mois sans engagement, ou 19,99 euros par mois en facturation annuelle, avec cette fois 3 To de stockage, 20 domaines de messagerie personnalisés, mais aussi l’accès à l’IA générative Lumo lancée en juillet 2025, ainsi qu’à l’assistant d’écriture Proton Scribe.
Notons que ces tarifs s’entendent hors taxes, 20 % de TVA s’ajoutent donc sur la facture.
Outre le caractère européen de son offre, protégée de la portée extraterritoriale des lois états-uniennes (également valable pour des acteurs déjà installés comme Infomaniak), Proton revendique également une sécurité de haut niveau grâce à un code open source auditable et un chiffrement bout-en-bout par défaut. L’entreprise se dit enfin particulièrement compétitive.
« Bien que Proton Workspace inclue des outils de cybersécurité supplémentaires très utiles, il est moins cher que les offres comparables des grands acteurs du secteur et bien plus avantageux que l’achat de chaque service individuellement. Chez Proton, nous privilégions l’humain au profit, c’est pourquoi nous n’augmentons pas nos tarifs chaque année. Depuis plus de dix ans, nous n’avons jamais augmenté nos prix pour nos clients existants », vante l’entreprise.
La comparaison directe n’est toutefois pas aussi évidente que le prétend Proton, dans la mesure où les offres Microsoft 365 et Google Workspace recouvrent des périmètres et des capacités différents. L’argument final sonnera toutefois de façon positive aux oreilles des clients Microsoft 365 confrontés aux hausses de prix programmées par l’éditeur.
Proton Meet met le cap sur la visio
Proton lance également à cette occasion son service de visio, baptisé Proton Meet, et présenté, lui aussi, comme un rempart face aux risques en matière de non-respect de la vie privée.
« De nombreux services de visioconférence sont motivés par des modèles publicitaires ou par la course à l’IA visant à enregistrer, transcrire et stocker un maximum de données de réunion. Ces géants de la tech peuvent désormais déployer à moindre coût une IA générative pour analyser et tirer des enseignements de tout ce qui est dit et présenté lors de nos réunions », affirme Dingchao Lu, directeur de l’ingénierie chez Proton.
L’entreprise s’affranchirait de ces dérives, réelles ou supposées, grâce à un chiffrement de bout en bout basé sur le protocole Messaging Layer Security (également mis en œuvre dans RCS). Elle affirme également pouvoir garantir l’obfuscation de l’adresse IP des utilisateurs sans recourir à un réseau de type P2P ou oignon. Pour ce faire, Proton évoque une implémentation de WebRTC permettant d’exploiter un réseau de points de présence dans le monde entier, jouant donc le rôle de relais dans les échanges.
Proton Meet propose un chiffrement bout-en-bout via MLS – crédit Proton
D’un point de vue fonctionnel, Proton Meet permet aux particuliers de créer une visio gratuitement avec une limite d’utilisation fixée à une heure, sans qu’il soit nécessaire de disposer d’un compte Proton ou de renseigner un e-mail.
Pour des visios plus longues, ou des quotas rehaussés en matière de participants, il faudra en revanche se tourner soit vers les abonnements Workspace, soit souscrire un abonnement Meet Professional, affiché à 7,99 euros par utilisateur et par mois.
L’anonymat de Proton n’est pas au-dessus des lois suisses
Début mars, les promesses d’anonymat et de protection de la vie privée formulées par Proton ont été mises en balance d’une actualité récente. Le site 404 Media a en effet rapporté que Proton Mail avait donné suite aux demandes d’identification d’un utilisateur de Proton Mail formulées par les autorités suisses, sur demande préalable du FBI.
L’information avait été reprise dans la foulée par la fondation pour la liberté de la presse, dans un billet d’alerte affirmant qu’en dépit de son marketing et de ses qualités intrinsèques, dont le recours à PGP, Proton Mail ne devait pas être considéré comme une solution garantissant l’anonymat des utilisateurs. L’entreprise avait ensuite récusé toute soumission aux demandes des États-Unis, mais précisé devoir se conformer au droit suisse.
« Proton ne fournit que les informations limitées dont nous disposons lorsque nous recevons une ordonnance juridiquement contraignante des autorités suisses, ce qui ne peut se produire qu’après que toutes les vérifications juridiques suisses ont été effectuées. Il s’agit d’une distinction importante, car Proton œuvre exclusivement sous le droit suisse », a déclaré un porte-parole au quotidien Le Temps.
L’ex-Twitter a activé une option qui fait déjà râler bon nombre d’internautes sur Reddit : la traduction automatique et par défaut des posts qui sont rédigés dans une langue autre que celle sélectionnée par l’utilisateur au niveau de son profil.
Sur un profil paramétré en français, tous les messages publiés en anglais apparaissent donc systématiquement traduits dans la langue de Molière, avec tout ce que le traitement automatisé peut entraîner comme faux amis, erreurs d’interprétation et autres subtilités liées à l’argot, au second degré ou aux expressions idiomatiques.
Le changement a été annoncé par Ray Hotate, un des ingénieurs de xAI, en relais d’un post écrit en japonais dont la traduction automatisée fait particulièrement envie : « J’aime cette photo avec des hommes américains et de la viande. J’aimerais bien y participer sur place un jour ».
En barbecue comme en traduction, la qualité vaut parfois mieux que la quantité – capture d’écran Next
« L’année dernière, après avoir renforcé les fonctionnalités multilingues de Grok par un apprentissage postérieur, j’ai commencé à développer ce système de traduction automatique tout seul », décrit Ray Hotate, d’après la traduction réalisée par Grok depuis le japonais.
X proposait bien jusqu’ici une fonction de traduction opérée par Grok, le modèle d’IA générative développé par xAI, mais celle-ci se présentait comme une option, sous la forme d’un lien discret invitant à traduire le message rédigé dans une langue étrangère.
La logique est maintenant inversée par défaut : X affiche une mention « À l’origine en anglais et traduit », suivie d’un lien « Afficher l’original ».
Il est cependant possible de désactiver cette traduction automatique langue par langue, en ouvrant un message traduit automatiquement (c’est-à-dire en l’affichant via son lien spécifique, et pas uniquement dans le flux d’actualités). Sur la page du post apparait alors une petite roue crantée à droite de la ligne signalant la traduction automatique. On peut ensuite la réactiver au même endroit.
On peut (heureusement) désactiver la traduction automatique – capture d’écran Next
Notons que X propose également de gérer l’affichage des traductions via les paramètres, dans la rubrique Accessibilité, affichage et langues, mais le réglage associé n’était pas fonctionnel chez nous mardi après-midi.
GitHub a désactivé en urgence une fonctionnalité qui permettait l’insertion, par Copilot, de « conseils » dans les pull requests des utilisateurs. Quelques jours plus tôt, la plateforme avait annoncé l’extension de l’utilisation faite des données des utilisateurs pour l’entraînement de ses modèles, avec une approbation tacite par défaut et une désactivation manuelle (opt-out).
Glisser des conseils en forme de pubs dans le code des demandes de tirage (pull requests), il fallait y penser. GitHub l’a fait, de façon fort maladroite, et vient de rétropédaler en urgence face à la fronde des utilisateurs. La plateforme invoque une erreur de paramétrage, liée à une autre de ses modifications récentes : la possibilité de collecter les données issues des interactions de l’utilisateur avec Copilot.
« Copilot a intégré une pub à ma PR »
Lundi 30 mars, plusieurs développeurs s’insurgent sur les réseaux sociaux : en lisant les demandes de tirage réalisées au sein de leurs équipes, ils réalisent que le code a fait l’objet d’une édition réalisée par l’agent IA Copilot intégré à la plateforme. « Déployez rapidement des agents de codage Copilot depuis n’importe quel endroit de votre machine macOS ou Windows grâce à Raycast », écrit l’IA de Microsoft, avec émoticône en forme d’éclair et lien vers le site de l’éditeur concerné.
L’IA a édité la PR pour y ajouter une phrase faisant la promotion d’un outil tiers, Raycast – capture d’écran publiée par Zach Manson
Quelles que soient les qualités intrinsèques de Raycast, difficile de ne pas interpréter ce message comme une incitation à installer le logiciel, et donc comme une publicité. « C’est horrible. Je savais que ce genre de conneries finirait par arriver, mais je ne m’attendais pas à ce que ce soit si tôt », s’émeut le développeur australien Zach Manson, capture d’écran à l’appui, qui rappelle ensuite la fameuse citation de Cory Doctorow sur la théorie de la merdification.
« Au départ, les plateformes conviennent à leurs utilisateurs ; ensuite, elles abusent de ces usagers pour améliorer l’expérience de leurs clients professionnels ; enfin, elles abusent de leurs clients professionnels pour récupérer toute la valeur pour elles-mêmes. »
GitHub rétropédale en urgence
Sentant la bronca venir, GitHub n’a pas tardé à réagir. La plateforme nie toute velléité publicitaire et invoque plutôt l’erreur technique liée à une fonctionnalité présentée comme acceptable, les conseils produits. C’est Martin Woodward, vice-président en charge des relations avec les développeurs, qui est monté au créneau sur X lundi en fin de journée, en répondant à un compte qui s’alarmait de ce changement :
« Nous l’avons déjà désactivé. En fait, il s’agissait de conseils produits, ce qui était acceptable pour les demandes de fusion initiées par Copilot. Mais lorsque nous avons ajouté la possibilité d’utiliser Copilot sur _n’importe quelle_ demande de fusion en le mentionnant, le comportement est devenu problématique. Nous avons donc désactivé complètement les conseils produits suite aux retours reçus. »
Quelques heures plus tard, il livre une explication de texte légèrement plus détaillée et promet que GitHub n’a jamais eu et n’a toujours pas l’intention d’intégrer de publicité sur sa plateforme :
« Notre objectif était de partager des utilisations innovantes de l’agent de codage Copilot. Dans ce cas précis, nous avions mis en avant notre intégration avec Raycast parmi un ensemble plus large de conseils produits. Cependant, cette suggestion est apparue plus fréquemment que prévu, au même titre que d’autres suggestions de fonctionnalités. Nous avons donc supprimé les conseils relatifs à l’agent Copilot de toutes les pull requests. »
Il situe par ailleurs la date d’introduction de ce comportement problématique au 24 mars, à l’occasion « d’un déploiement qui a étendu la capacité de Copilot à contribuer à toute demande de fusion lorsqu’un développeur en fait la demande ».
GitHub renforce l’intégration de Copilot (et son accès aux données)
Le 24 mars, c’est précisément la date à laquelle GitHub a annoncé une mise à jour de ses conditions d’utilisation, pour étendre les possibilités d’entrainement de Copilot.
Ces nouvelles conditions, qui entreront en vigueur le 24 avril prochain, prévoient que « les données d’interaction (notamment les entrées, les sorties, les extraits de code et le contexte associé) des utilisateurs de Copilot Free, Pro et Pro+ seront utilisées pour entraîner et améliorer nos modèles d’IA, sauf s’ils s’y opposent ».
L’entreprise indique explicitement que les utilisateurs de comptes Copilot Business et Copilot Enterprise sont exclus de ce périmètre, mais pour les autres, il faudra une modification manuelle du paramètre en question pour refuser ce nouveau comportement. Autrement dit, Microsoft procède selon une logique d’opt-out (le consentement est donné par défaut, et il faut signaler son refus), là où le caractère personnel des informations concernées aurait pu (ou dû) motiver un opt-in, c’est-à-dire un consentement explicite avant activation.
L’option Autoriser GitHub à utiliser mes données pour l’entraînement des modèles IA est activée par défaut – capture d’écran Next
L’option correspondante est dès à présent disponible dans le menu Settings, à la rubrique Copilot / Features. Pour celles et ceux qui voudraient faire d’une pierre deux coups, l’écran dédié permet au passage de réduire la fréquence des allusions permanentes à Copilot dans l’interface de GitHub.
Pour justifier sa décision, GitHub estime s’aligner avec les standards de l’industrie et promet que leur consentement permettra aux utilisateurs de contribuer à l’amélioration de la qualité de ses modèles.
La plateforme précise par ailleurs le périmètre des données concernées par ces possibilités d’entrainement. Elle affirme ainsi pouvoir collecter les éléments suivants :
Sorties acceptées ou modifiées par vos soins
Entrées envoyées à GitHub Copilot, y compris les extraits de code présentés au modèle Contexte du code autour de la position de votre curseur
Commentaires et documentation que vous rédigez
Noms de fichiers, structure du dépôt et habitudes de navigation
Interactions avec les fonctionnalités de Copilot (chat, suggestions intégrées, etc.)
Vos commentaires sur les suggestions (appréciations : « J’aime »/« Je n’aime pas »)
Le contenu des tickets, des discussions ou des dépôts privés échappe en revanche à la collecte à des fins d’entrainement.
La plateforme promet enfin que ces données ne seront pas vendues à des tiers, mais se réserve la possibilité d’en faire profiter d’autres entités du groupe Microsoft :
« Les données utilisées dans le cadre de ce programme peuvent être partagées avec les filiales de GitHub, qui font partie de notre groupe, notamment Microsoft. Ces données ne seront pas partagées avec des fournisseurs de modèles d’IA tiers ni avec d’autres prestataires de services indépendants. »
Dans la conversation qui s’est enclenchée sur la FAQ dédiée, certains utilisateurs suggèrent que GitHub récompense cette exploitation sous forme de tokens gratuits. D’autres réclament la possibilité de retrouver une version de la plateforme complètement expurgée de Copilot.
Mistral annonce avoir finalisé l’emprunt de 830 millions de dollars qui doit lui permettre de financer les GPU destinés à son datacenter de Bruyères-le-Châtel, au sud de Paris. Cette somme amenée par un pool bancaire, servira à acheter 13 800 puces GB300 à NVIDIA, et portera la puissance IT installée sur le site à 44 MW.
Mistral AI a annoncé lundi 30 mars avoir conclu les conditions d’un financement par la dette portant sur une enveloppe de 830 millions de dollars (722 millions d’euros), auprès d’un panel de banques.
Cet emprunt, dont les conditions n’ont pas été précisées, répond à un besoin précisément identifié : l’équipement en puces spécialisées du datacenter utilisé par Mistral AI et construit par Eclairion à Bruyères-le-Châtel, à proximité immédiate des installations du CEA au sud de Paris, à une trentaine de kilomètres du plateau de Saclay. La somme doit en l’occurrence permettre l’acquisition de 13 800 puces GB300 signées NVIDIA.
44 MW de puissance IT équipés en GB300
Ces ressources informatiques porteront la puissance IT disponible pour Mistral à 44 MW, indique l’entreprise. « Alors que les gouvernements et les entreprises cherchent activement à construire leur propre environnement d’IA personnalisé, nous développons notre infrastructure en Europe. Mistral AI est le guichet unique pour l’innovation et l’autonomie en IA. », s’est réjoui Arthur Mensch, CEO et cofondateur de Mistral AI.
L’opération fait intervenir une majorité d’acteurs français, avec la banque publique d’investissement, Bpifrance et cinq établissements privés BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis Corporate & Investment Banking. Un septième acteur, étranger cette fois, participe au tour : la banque MUFG (groupe Mitsubishi).
Le projet et son emplacement avaient été dévoilés en février 2025 par Mistral AI. La startup avait alors annoncé s’être associée avec Eclairion, un acteur français spécialisé dans la conception de datacenters haute densité.
L’intégration devait également associer un intégrateur britannique devenu états-unien, Fluidstack, qui s’était également positionné sur l’un des projets clés en main identifiés par la France à Bosquel dans la Somme avec une enveloppe prévisionnelle de l’ordre de 10 milliards de dollars. D’après Bloomberg, Fluidstack aurait cependant révisé ses plans concernant la France, préférant concentrer ses investissements sur le sol des États-Unis.
Dans sa communication récente, Mistral AI n’évoque pas les partenaires industriels du projet, et ne précise pas les modalités de déploiement de ces GB300, ou la part exacte que représenteront ces derniers dans les 44 MW de puissance IT. Arnaud Lépinois, CEO d’Eclairion, indiquait le 4 décembre 2025 à l’occasion du Dell Technologies Forum être à quelques heures de la mise en production d’un cluster de GB200 destinés à Mistral AI et représentant la plus grosse machine d’IA de France. Les cartes du projet auraient-elles été rebattues ?
Une infrastructure au service de Mistral Compute
Si les parties prenantes ou le calendrier ont pu évoluer, Mistral AI parle d’une mise en service au deuxième trimestre 2026 et reste alignée sur l’objectif déjà exprimé : mettre à disposition une infrastructure de calcul affranchie de toute considération réglementaire extraterritoriale au profit des projets IA de ses grands clients institutionnels, via son offre Mistral Compute, officiellement inaugurée en juin dernier. En janvier, l’entreprise a notamment signé un accord-cadre avec le ministère des Armées.
« Nous continuerons d’investir dans ce domaine, compte tenu de la demande forte et durable des gouvernements, des entreprises et des institutions de recherche qui cherchent à construire leur propre environnement d’IA personnalisé, plutôt que de dépendre de fournisseurs cloud tiers. », déclare à ce propos Arthur Mensch.
Outre son projet en Essonne, l’entreprise a annoncé en février dernier un investissement à hauteur de 1,2 milliard d’euros dans un projet de centre de données situé en Suède, sa première infrastructure opérée en propre située hors de France. Quelques mois plus tôt, Mistral AI avait levé 1,3 milliard d’euros auprès du néerlandais ASML, en échange de 11 % de son capital. L’entreprise était alors valorisée 11,7 milliards d’euros. Elle affirme aujourd’hui viser 200 MW de puissance IT installée à fin 2027.
Le mauvais chasseur, y voit un truc qui bouge, y tire. Alors que le bon chasseur...
Bluesky ouvre une expérimentation prudente autour de l’IA avec le lancement d’Attie, un « assistant » censé aider l’utilisateur à trouver des comptes ou des contenus intéressants, en fonction de demandes exprimées en langage naturel. Présentée comme exploratoire, la démarche est accueillie plutôt froidement par les utilisateurs du réseau social.
Organisée entre les 26 et 29 mars, la conférence Atmosphere a réuni pendant quatre jours la communauté des développeurs intéressés par le protocole AT (Authenticated Transfer Protocol). Bluesky, dont le réseau social exploite ce fameux atproto, a profité de l’occasion pour présenter sa dernière application en date. Baptisée Attie (en référence à la façon dont on prononce l’acronyme AT en anglais), elle prend la forme d’un agent IA chargé de construire des flux de messages personnalisés en fonction de la demande de l’utilisateur.
Mieux que le flux chronologique, le flux généré par IA ?
« Décrivez ce que vous souhaitez voir et regardez votre flux se composer automatiquement autour de vous », promet le site dédié à Attie. Le service fait pour l’instant l’objet d’une bêta fermée, mais il propose une liste d’attente à laquelle on peut s’inscrire avec un identifiant Bluesky.
En attendant que les vannes soient ouvertes plus largement, il dispense plusieurs exemples illustrant le fonctionnement d’Attie. Plutôt que de procéder à une recherche par mots-clés, l’interface propose d’entrer une requête en langage naturel, et suggère en retour une sélection de comptes à suivre ou de messages susceptibles d’y répondre. On peut ainsi demander une liste de comptes spécialisés sur une thématique donnée, ou chercher qui parmi les comptes suivis par l’utilisateur publie des poèmes de son cru.
Attie permet par exemple de constituer une liste thématique de comptes à suivre…
Attie permet ensuite de sauvegarder la requête, pour en faire un flux personnalisé. Ce dernier semble pour l’instant cantonné à l’application Attie, mais la logique voudrait qu’il soit à terme possible de l’exporter soit vers Bluesky, soit vers d’autres clients exploitant atproto.
Bluesky présente l’outil comme un agent social. « On a davantage l’impression d’avoir une conversation que de configurer un logiciel. Vous décrivez le type de publications que vous souhaitez voir, et l’agent de codage crée le flux que vous avez décrit », explique Jay Graber, ex CEO devenue responsable de l’innovation chez Bluesky.
… ou de chercher des messages au contenu plus spécifique – captures d’écran
Un appel à vibe coder autour d’atproto
Dans son billet, Jay Graber présente Attie comme une première pierre à caractère exploratoire pour un édifice nettement plus ambitieux : faciliter la création de nouvelles applications capables de tirer parti des échanges sur un réseau atproto, notamment grâce à l’IA.
« Nous avons conçu le protocole AT pour que chacun puisse développer l’application de son choix, mais jusqu’à récemment, n’importe qui signifiait en réalité n’importe qui sachant coder. Les outils de programmation automatisée changent la donne. Pour la première fois, un protocole ouvert est véritablement accessible à tous. »
Attie serait ainsi une forme de démonstrateur de ce qu’il est possible de faire au sein de l’Atmosphere, le terme par lequel Bluesky désigne l’écosystème d’applications et de services construits sur le protocole AT :
« L’Atmosphere est une couche de données ouverte dotée d’un schéma clairement défini pour les applications, ce qui la rend particulièrement adaptée au développement d’agents. Nous nous sommes donc demandé : que se passe-t-il lorsque vous pouvez décrire l’expérience sociale souhaitée et qu’elle est créée pour vous ? »
Un accueil plutôt mitigé
L’interopérabilité et la capacité à développer des services capitalisant sur les promesses d’ouverture et de décentralisation d’atproto (décentralisation très relative dans le cas de Bluesky) fédèrent déjà près d’un millier d’applications, remarque Toni Schneider, investisseur chez True Ventures, dans un billet laudateur.
Sans remettre en cause cette promesse, l’application Attie a de façon plus prosaïque reçu un accueil mitigé sur Bluesky, où divers mèmes circulent pour souligner que personne n’a jamais exprimé le souhait de paramétrer son flux à l’aide d’un agent IA.
Attie compte déjà quelques détracteurs sur Bluesky – source
« Attie est une application distincte, et son utilisation est entièrement à votre discrétion. Bluesky continuera d’évoluer en tant qu’application sociale utilisée par des millions de personnes. Attie sera notre plateforme d’expérimentation pour une interaction sociale proactive », affirme Jay Grabber.
De façon symbolique, l’identifiant Bluesky dédié à Attie est passé lundi midi à la troisième place du classement des comptes les plus bloqués sur le réseau social selon un outil tiers. Attie a ainsi surpassé le compte de l’ICE, la police de l’immigration, et talonne désormais la Maison-blanche, même si le numéro un, le vice-président JD Vance, reste encore hors de portée.
113 000 utilisateurs de Bluesky auraient symboliquement bloqué le compte attie – capture d’écran
Le Parlement européen a rejeté jeudi la proposition de la Commission européenne visant à autoriser les grands acteurs du numérique à surveiller volontairement les communications électroniques pour y détecter les contenus relevant d’abus sexuels sur mineurs. La dérogation accordée jusqu’en 2027 est donc annulée, et la pratique doit prendre fin au 3 avril prochain.
Nouveau rebondissement dans le feuilleton Chat Control : avec 228 voix pour, 92 abstentions et 311 voix contre, les députés européens ont rejeté jeudi 26 mars la proposition de la Commission européenne visant à prolonger la dérogation existante à la directive ePrivacy.
Cette dernière permet pour mémoire aux grandes plateformes numériques de scanner le contenu des conversations privées pour y détecter la circulation de contenus relevant d’abus sexuels sur mineurs (CSAM, pour child sexual abuse material en anglais).
Cette prolongation était demandée par Bruxelles pour maintenir une possibilité temporaire de surveillance, en attendant la conclusion des négociations relatives à un cadre juridique à long terme : le projet Child Sexual Abuse Regulation (CSAR), surnommé Chat Control par ses opposants.
Différences de points de vue
Les eurodéputés s’étaient déjà exprimés sur la question de la détection volontaire de matériaux pédocriminels le 11 mars dernier. Ils avaient alors adopté, comme Next le rapportait, une position en faveur d’une extension de la dérogation à la directive ePrivacy jusqu’au mois d’août 2027.
Ils avaient également intégré à la proposition de règlement plusieurs modifications réduisant le caractère global de la surveillance ainsi permise, en restreignant par exemple cette dernière aux utilisateurs identifiés par une autorité judiciaire comme étant « raisonnablement soupçonnés » d’être liés à des abus sur mineurs.
Sur la base de cette position, les négociations devaient ensuite s’engager via un trilogue avec le Conseil de l’UE et la Commission européenne, pour entériner (ou non) cette proposition de dérogation. Avec une certaine dimension d’urgence, puisque la précédente dérogation ne court que jusqu’au 3 avril 2026.
L’affaire a donc été renvoyée dès le 11 mars au comité chargé des négociations interinstitutionnelles… et les discussions engagées par ce dernier ont achoppé, comme l’a annoncé le Parlement européen dans un communiqué le 17 mars dernier.
« Par leur manque de souplesse, les États membres ont délibérément accepté que ce règlement expire en avril. Dès lors, le contrôle volontaire visant à lutter contre la diffusion en ligne de contenus pédopornographiques par les fournisseurs d’accès ne sera plus possible », y déclare la rapporteure allemande du texte, Brigit Sippel.
Faute d’accord, les eurodéputés se sont donc exprimés jeudi 26 mars sur la proposition de la Commission européenne, et l’ont rejetée, clôturant ainsi la première lecture. Ce faisant, ils provoquent donc la fin, au 3 avril prochain, de la dérogation qui autorisait la surveillance des conversations chiffrées.
Trilogues à venir
Patrick Breyer, principal opposant déclaré au texte, voit dans ce rejet une nouvelle victoire :
« Les entreprises américaines comme Meta, Google et Microsoft doivent cesser de scruter sans discernement les conversations privées des citoyens européens. La confidentialité des échanges numériques est rétablie ! »
Il rappelle toutefois que ce nouveau rebondissement ne signe pas la fin des velléités de contrôle manifestées par certains États membres et par Bruxelles, notamment parce que les négociations autour d’un éventuel Chat Control 2.0 se poursuivent. Et souligne que la question ne se limite pas à la surveillance des correspondances :
« Par ailleurs, la prochaine menace majeure pour les libertés numériques est déjà à l’ordre du jour : dans le cadre du trilogue en cours, les législateurs devront négocier la question de savoir si les services de messagerie instantanée et les plateformes de téléchargement d’applications seront légalement tenus de mettre en œuvre une vérification de l’âge. Cela obligerait les utilisateurs à fournir une pièce d’identité ou à se soumettre à une reconnaissance faciale, rendant de fait toute communication anonyme impossible et mettant gravement en danger les groupes vulnérables tels que les lanceurs d’alerte et les personnes persécutées. »