Vue normale

Reçu — 8 avril 2026 Next - Articles gratuits

Quoi de neuf à la rédac’ de Next ? L’arrivée d’un nouveau journaliste !

8 avril 2026 à 15:47
« +1 » + « +1 », ça fait déjà +2 !
Quoi de neuf à la rédac’ de Next ? L’arrivée d’un nouveau journaliste !

Trois ans après le rachat de Next par moji, le site et l’équipe continuent de se renforcer ! Une nouvelle plume rejoint la rédaction. Nous sommes désormais huit à vous proposer des contenus sur Next.

+ 1 dans la rédac’

Vous faisiez quoi le 23 mars à 19h17 ? Ferd, en toute détente, annonçait du nouveau à venir sur Next avec une « bonne surprise ». Ne feignez donc pas la surprise ce matin de voir une nouvelle plume – Mickaël Bazoge – signer des articles sur Next. Bonne nouvelle, il rejoint Next à temps plein à partir de cette semaine. Pour commencer, bienvenue !

Mickaël… ce prénom vous parle ? Rien d’étonnant, il a passé quelques années chez MacG puis chez 01Net (groupe Keleops) ; cela fait une vingtaine d’années qu’il parle de la tech, sous toutes ses formes. Sur Next, il couvrira une large variété de sujets dans la lignée de ce que nous faisons déjà… avec, selon l’humeur du chef, une pointe d’actualité autour du monde des jeux vidéo. Vous pouvez retrouver ses actus sur sa page profil.

Mickaël est basé à Montréal (au Canada, pas la petite commune dans l’Aude), il est donc en décalage de six heures par rapport à nous (son matin est notre après-midi) ; c’est pratique pour suivre les annonces aux États-Unis ! Comme l’ensemble de la rédac’, il est en télétravail.

+ 2 en deux ans avec l’arrivée d’Alex

L’équipe se renforce donc encore une fois. Depuis le rachat (et le sauvetage) de Next par moji, la rédaction a donc gagné deux journalistes : Alexandre Laurent arrivé durant l’été 2024 et maintenant Mickaël Bazoge. Tous les deux viennent en renfort de Jean-Marc Manach, Martin Clavey, Mathilde Saliou, Vincent Hermann et moi-même… sans oublier l’indécrottable Flock (en vacances cette semaine, pas de chronique samedi, mais celle de la semaine dernière compte double). Vincent est pour le moment en arrêt prolongé, et on lui souhaite de nous rejoindre dès que possible !

C’est un pari sur l’avenir car Next n’est pas (encore) à l’équilibre au niveau de ses comptes. Renforcer l’équipe et vous proposer toujours plus de contenus nous semble par contre indéniablement la bonne voie pour satisfaire nos abonnés et en recruter de nouveaux. Pour rappel, les abonnements – 8 euros par mois, ou 80 euros par an – sont notre seule source de revenus.

Next n’a aucune publication, aucun lien affilié ni aucun contenu sponsorisé depuis son rachat, pour l’ensemble de nos lecteurs. Pire, Next vous fait un cadeau avec votre abonnement : 1 To de stockage S3, en France, géré par moji, voire encore plus pour ceux qui disposent d’un compte depuis plusieurs années.

Quoi de neuf dans le reste de la rédac’ ?

Mathilde continue de nous proposer des épisodes de podcast, à écouter sans modération. Dernier en date, le numéro six d’entre la chaise et le clavier, avec « ce que l’IA fait à la traduction avec En chair et en os ». Ce soir, le 7ᵉ épisode parle de vulgarisation avec Pierre Kerner et Adrien Perrard. Tous les épisodes sont à retrouver sur cette page (vous pouvez aussi vous abonner au feed RSS du podcast).

Alexandre continue de travailler sur le projet de La Presse Libre v2.0, entre deux actualités sur des levées de fonds, des entrées en bourse et des chantiers de datacenters.

Jean-Marc nous en apprend tous les jours sur les fakes news alimentées par IA… saviez-vous par exemple qu’il était « interdit d’ouvrir ses fenêtres » ? Nous non plus… Reste que la liste des sites d’info générés par IA flaggués par notre extension vient aussi de franchir le cap des 12 300 sites GenAI !

Martin, pendant ce temps, décortique les annonces autour des intelligences artificielles, notamment sur son utilisation en chimie, sans oublier un retour d’expérience passionnant sur le passage d’une ville aux logiciels libres dès 2021.

Quant à moi, entre les opérations de fouilles archéologiques dans la GavCave et la publication d’une carte interactive sur les emails de plus de 36 000 mairies françaises, je vous propose des tutos sur les VPS et notamment, point très important, comment les sécuriser. Une autre carte interactive sur le vaste monde numérique est en train d’être finalisée, on en reparle rapidement.

Sur le site, de nombreuses améliorations ont été apportées, mais je vais laisser la primeur de ces infos à un futur Poing Dev qui ne saurait tarder.

☕️ Chrome passe (enfin) aux onglets verticaux et au mode lecture en pleine page

8 avril 2026 à 15:36


Après l’introduction de la vue partagée, Google vient de publier une mise à jour de Chrome (version 147) qui permet au navigateur de se mettre au niveau de la concurrence sur deux aspects : la gestion des onglets verticaux, et le mode lecture.

Les onglets verticaux sont particulièrement utiles sur les écrans larges (type 21:9 et autres formats dits ultrawide) puisqu’ils permettent d’afficher une portion plus importante du titre de la page ouverte, facilitant ainsi la navigation ou la recherche d’un onglet précis.

Promis de longue date par Google, les onglets verticaux n’étaient jusqu’ici accessibles qu’après une activation manuelle au niveau du menu des fonctionnalités expérimentales. Ils sont désormais en cours de déploiement pour tous les utilisateurs. L’option correspondante est censée apparaître au clic droit sur la barre d’onglets.

Chrome se met enfin à la page avec des onglets verticaux officiellement pris en charge – capture d’écran Next

La vue verticale dispose d’un mode réduit qui permet de n’afficher que le favicon des différents sites ouverts pour garder un accès direct aux onglets tout en augmentant la surface d’affichage utile. Elle propose logiquement, elle aussi, de créer des groupes d’onglets et d’organiser ces derniers par nom ou par étiquettes de couleur.

Une bonne nouvelle n’arrivant jamais seule, Google profite de l’occasion pour introduire un mode lecture plein écran. Jusqu’ici, l’option correspondante offrait en effet une vue simplifiée de la page en cours (expurgée des éléments graphiques et contextuels) mais uniquement sous forme d’écran partagé. Une façon, pour le moteur de recherche, de préserver le fondement de son modèle économique, puisque le mode lecture fait disparaître la plupart des publicités.

À gauche, l’ancien mode lecture, à droite le mode plein écran introduit par Chrome 147 – captures d’écran Next

Présenté comme « plus immersif », ce mode lecture dispense des options de réglage de la taille de la police, de l’interligne, ou de la couleur de fond, ainsi qu’un mode de lecture vocale (text to speech). Il est par ailleurs présenté comme compatible avec les lecteurs d’écran.

Ces deux options, annoncées par un billet de blog, sont censées être disponibles chez tous les utilisateurs, mais comme toujours, le déploiement se fait de façon échelonnée. Si l’une ou l’autre de ces options n’est pas activée chez vous, rendez-vous dans le menu des fonctionnalités expérimentales via ces deux liens :

☕️ Bitcoin : une nouvelle enquête affirme révéler l’identité de Satoshi Nakamoto

8 avril 2026 à 11:01


Serait-ce enfin l’épilogue ? Dix-sept ans après la publication du fameux livre blanc signé Satoshi Nakamoto et l’essor du phénomène bitcoin, deux journalistes du New York Times affirment être en mesure de certifier l’identité réelle de son créateur. D’après leur longue enquête, tous les éléments convergent vers Adam Back, un cryptographe d’origine britannique âgé de 55 ans.

Pour mettre un nom sur l’un des hommes les plus recherchés au monde, John Carreyrou et Dylan Freedman ont notamment passé au crible les archives de la célèbre mailing list Cypherpunks dont les échanges, inscrits dans le courant de pensée éponyme, ont participé à la création des cryptoactifs en général et de bitcoin en particulier.

Au cours de leurs travaux, les deux journalistes estiment avoir mis au jour des similitudes troublantes entre les échanges signés par Adam Back et ceux attribués à Satoshi Nakamoto. Le premier aurait d’ailleurs disparu quand le second a fait son entrée sur le devant de la scène, avant que le mouvement inverse ne s’opère. En 2011, Nakamoto s’est en effet soudainement tu. Six semaines après sa disparition, Adam Back s’est ensuite exprimé pour la première fois publiquement sur le bitcoin.

Adam Back a démenti mercredi être le créateur de bitcoin – capture d’écran

John Carreyrou, célèbre pour avoir déclenché l’affaire Theranos quand il écrivait encore au Wall Stret Journal exhume quelques déclarations ambivalentes, et souligne comment les travaux préliminaires d’Adam Back ouvraient la voie au bitcoin. L’intéressé a en effet conçu et développé, dès 1997, un système de preuve de travail baptisé Hashcash, initialement pensé pour la lutte contre le spam, et repris ultérieurement dans l’univers bitcoin. Carreyrou retrace également le parcours de Back depuis le lancement de bitcoin, et s’interroge notamment sur les raisons de son installation à Malte, à partir de 2009.

Le gros de l’enquête réside toutefois sur des mécaniques d’analyse du discours assistée par ordinateur, qui mettent en lumière des expressions idiomatiques, des tics de langage, des constructions rhétoriques et des idées que l’on retrouve aussi bien dans les propos signés Adam Back que dans ceux attribués à Satoshi Nakamoto.

L’analyse finale est même purement quantitative : les deux auteurs indiquent avoir créé un corpus regroupant des messages émanant de 620 candidats potentiels à la paternité de bitcoin, et passé cet inventaire au crible des écrits de Nakamoto. Dans le lot, le seul à cocher toutes les cases, de la façon d’écrire email à l’emploi de tournures britanniques plutôt qu’américaines, s’est révélé Adam Black.

Dont acte ? L’intéressé a réagi mercredi 8 avril sur les réseaux sociaux.

« Je ne suis pas Satoshi, mais j’ai été parmi les premiers à me concentrer sur les implications sociétales positives de la cryptographie, de la confidentialité en ligne et de la monnaie électronique, d’où mon intérêt actif, à partir de 1992 environ, pour la recherche appliquée sur la monnaie électronique et les technologies de confidentialité sur la liste de diffusion des cypherpunks, ce qui a conduit à Hashcash et à d’autres idées ».

D’après lui, les liens sémantiques établis par Carreyrou relèveraient de la coïncidence, et d’une proximité de pensée entre des passionnés partageant des centres d’intérêt commun. Et le secret qui entoure la création de bitcoin mériterait d’être défendu : « Je ne sais pas non plus qui est Satoshi, et je pense que c’est une bonne chose pour le bitcoin, car cela contribue à ce qu’il soit perçu comme une nouvelle classe d’actifs, une matière première numérique mathématiquement rare ».

En attendant l’éventuelle transaction réalisée depuis le premier portefeuille en bitcoin de la chaîne, qui ferait sans doute office de preuve irréfutable, le mystère de l’identité de Satoshi Nakamoto n’a donc probablement pas fini de susciter enquêtes et controverses.

Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI

8 avril 2026 à 08:13
Sam, celui qui conduit c’est celui qui…
Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI

Il se passe toujours quelque chose chez OpenAI, à tel point que la start-up se donne parfois des allures de poulet sans tête. Pas très rassurant à quelques encablures d’une introduction en Bourse.

Les derniers jours ont été particulièrement turbulents chez OpenAI. En toute fin de semaine dernière, l’entreprise a ainsi annoncé une réorganisation de grande ampleur suite au congé maladie de Fidji Simo, « CEO des applications » et numéro 2 de la start-up, derrière Sam Altman.

En 2019, la Franco-Américaine a été diagnostiquée du syndrome de tachycardie orthostatique posturale. « Il est désormais clair que je suis allée un peu trop loin et que je dois vraiment essayer de nouvelles approches pour stabiliser ma santé », a-t-elle expliqué dans un mémo à ses équipes.

Retrait surprise de la numéro 2 d’OpenAI

Embauchée par le créateur de ChatGPT en mai 2025, elle occupait un poste complètement inédit au sein du groupe : directrice générale en charge des applications. L’ancienne vice-présidente de Facebook, devenue par la suite CEO d’Instacart, a poussé une stratégie de recentrage d’OpenAI et de ses précieuses ressources vers la génération de code et les services aux entreprises afin de mieux concurrencer Anthropic. La fermeture de Sora, le générateur de vidéos IA, et la suspension du développement du « mode adulte » de ChatGPT, participent à cette réorientation.

Fidji Simo voudrait aussi créer une « superapp » regroupant ChatGPT, Codex et le navigateur Atlas. En son absence forcée, ce projet ira-t-il à son terme ? Il est en tout cas entre les mains de Greg Bockman, le président d’OpenAI, qui prend cette superapp sous son aile. Brad Lightcap, le directeur des opérations, s’occupera des « projets spéciaux ». Fidji Simo était montée au créneau il y a encore quelques jours seulement pour expliquer le rachat de la chaîne tech TBPN (Technology Business Programming Network) par OpenAI.

Dans la foulée, la directrice marketing Kate Rouch a décidé de se retirer temporairement pour se consacrer à son rétablissement après un cancer. Elle occupait ce poste depuis un an et demi. Elle assurera la transition avec son remplaçant et « espère revenir dans un rôle différent à l’avenir si [sa] santé le lui permet ».

L’ombre de l’IPO

Ce bouleversement dans l’organigramme tombe à un moment délicat pour OpenAI, qui vient de boucler un tour de table à hauteur de 122 milliards de dollars, et qui s’apprêterait à se lancer à Wall Street cette année… Du moins si la direction de l’entreprise parvient à s’entendre sur cette question !

Le site The Information rapporte en effet les frictions entre la directrice financière Sarah Friar et le grand patron Sam Altman concernant le calendrier de l’introduction en bourse (IPO). Les procédures à mettre en place, le travail encore à accomplir en matière d’organisation, et les risques liés aux engagements de dépenses (notamment pour les équipements en serveurs) pourraient mettre à mal l’opération en 2026.

Bizarrement, la directrice financière relevait depuis août dernier non pas du directeur général Sam Altman, comme c’est généralement l’usage, mais… de Fidji Simo, qui vient donc de partir en congé maladie. Un vrai sac de nœuds !

Sur le strict plan financier, OpenAI aurait aussi prévenu les investisseurs que la marge brute réalisée en 2025 était inférieure aux prévisions. Elle a été grignotée par l’achat en urgence de capacités de calcul supplémentaires pour faire face à une demande plus forte que prévu. Sarah Friar s’inquiéterait également de la croissance des revenus, qui tournerait au ralenti.

Sam Altman se fait (encore) tirer le portrait

Le tableau ne serait pas complet sans le portrait de Sam Altman publié ce week-end par The New Yorker. À travers de nombreux témoignages et mémos internes, il dépeint un dirigeant habile, obsédé par la gagne, et qui entretiendrait un rapport, disons, très souple à la vérité.

Sam Altman en prend pour son grade. « Tu dois comprendre que Sam ne peut jamais être digne de confiance […] C’est un sociopathe. Il ferait n’importe quoi », aurait affirmé Aaron Swartz, informaticien, militant politique et hacktiviste américain qui s’est suicidé en janvier 2013. Le terme sociopathe a été utilisé spontanément par d’autres personnes, notamment du conseil d’administration d’OpenAI, expliquent nos confrères.

« Il n’a que faire de la vérité » et n’hésiterait pas à « déformer, trafiquer, renégocier et renier des accords », selon une source. Il posséderait, selon une autre source de chez Microsoft citée par nos confrères, deux traits de caractère que l’on ne retrouve généralement pas chez une seule personne : « un fort désir de plaire aux autres, d’être apprécié dans toutes ses interactions [et] un manque de préoccupation, presque sociopathique, des conséquences que pourrait entraîner le fait de duper quelqu’un ».

L’année dernière, Sam Altman était déjà au cœur de l’attention des médias avec les « OpenAI Files », une collection de documents regroupant de nombreux témoignages, notamment d’anciens employés de l’entreprise. Le portrait n’était pas flatteur. Des cadres supérieurs des trois entreprises qu’il a dirigées ont tenté de le démettre de ses fonctions. Son comportement chez Y Combinator aurait été qualifié de « trompeur et chaotique », avec en plus des accusations d’absentéisme et de course à l’enrichissement personnel. Il aurait menti et cherché à semer la zizanie dans le conseil d’administration… n’en jetez plus.

Le dévoilement de ces coulisses et la réorganisation de la direction au plus haut niveau pourraient-ils faire capoter l’IPO d’OpenAI ? Sans doute pas, les intérêts sont trop élevés, d’autant qu’Anthropic aussi se joint à la fête avec la volonté d’une entrée en bourse cette année. Mais ces remous confirment à tout le moins qu’au-delà de la figure publique de Sam Altman, la gouvernance de l’entreprise reste fragile.

☕️ Votre PC tient-il la route ? Steam pourrait donner la réponse avec une estimation des FPS

8 avril 2026 à 06:46


Quel joueur ne s’est pas réveillé en pleine nuit, de la sueur glacée perlant à grosses gouttes sur le visage et dans le dos, en se demandant si tel jeu allait tourner correctement sur son PC ? Il faut dire que les outils à leur disposition sont limités : ils peuvent toujours se référer aux configurations recommandées par l’éditeur, mais souvent cela revient à croiser les doigts dans l’espoir que tout tourne au mieux !

Steam pourrait bien leur faciliter la vie. La dernière bêta du client de la boutique contient des références à un « estimateur de framerate » qui fonctionnerait de la manière suivante : soit en renseignant la configuration matérielle du PC (CPU, GPU, RAM), soit en laissant le logiciel fouiller tout seul pour obtenir ces informations.

© dex3108

Après avoir sélectionné un jeu, Steam serait en mesure de retourner une estimation du nombre d’images par seconde que l’on devrait obtenir sur sa machine. Sur PC, la boutique Xbox offre un outil assez proche, mais elle se contente de dire comment tel jeu fonctionnera sur l’ordinateur, en restant vague. Sur Steam, il s’agira d’obtenir une donnée chiffrée.

Depuis le mois de février, le client Steam en bêta invite tous ceux qui laissent un avis sur la page d’un jeu à inclure automatiquement les caractéristiques matérielles de leur machine. Ils peuvent également autoriser la collecte de données (anonymisées) sur la fréquence d’images. C’est aussi le cas depuis la mise à jour de la version stable de SteamOS pour le Steam Deck qui remonte au 9 mars.

Valve précise que la fonction « est actuellement en version bêta et se concentre sur les appareils fonctionnant sous SteamOS », mais comme on le voit l’éditeur semble voir plus large que les seuls appareils de son écosystème. Il est vrai cependant que c’est plus facile de commencer par SteamOS, où le parc matériel se restreint à une poignée de consoles portables. La console de salon Steam Machine est toujours dans les limbes…

Le framerate ne fait pas tout, et on attend de voir si l’outil de Steam inclura des variations de FPS en fonction de la résolution du jeu et des paramètres de qualité sélectionnés. Le principe reste intéressant, ne serait-ce que pour avoir une idée un peu plus claire des performances à attendre. À voir si cette fonctionnalité arrivera en version finale et, si c’est le cas, sous quelle forme elle sera proposée

Y a-t-il trop de Copilot dans l’avion ?

8 avril 2026 à 06:01
L'heure de pointe dans le cockpit
Y a-t-il trop de Copilot dans l’avion ?

Trop de copilotes tuent-ils le Copilot ? C’est la question soulevée par un spécialiste de l’IA qui a dénombré des dizaines de versions différentes de Copilot chez Microsoft. L’éditeur en met partout, à toutes les sauces.

Sorti de Copilot, point de salut chez Microsoft. L’éditeur a la fâcheuse habitude de nommer bizarrement ses logiciels et services ; son IA ne fait pas exception. La course à l’IA générative l’a ainsi poussé à coller l’étiquette Copilot sur un peu tout et n’importe quoi.

Pour le commun des mortels, Copilot évoque un chatbot ou un bouton mystérieux dans une application. Pour Microsoft, c’est une marque à insérer au chausse-pied partout où c’est possible : on travaille dans Microsoft 365 Copilot, avec le mode Copilot du navigateur Edge qui affiche GitHub Copilot, le tout, bien sûr, sur un PC Copilot+ (dont le clavier comprend… une touche Copilot).

Des Copilot dans tous les sens

Cette boulimie presque incontrôlable a été mesurée par Key Bannerman, spécialiste IA, qui s’est amusé à cartographier les différents Copilot. Il en a compté 78, et deux de plus se sont ajoutés depuis : Gaming Copilot (une IA pour l’aide en jeu sur PC et les consoles Xbox), et Microsoft Dragon Copilot, un assistant IA pour le secteur de la santé. Sans oublier Copilot Health annoncé en mars.

La carte donne le vertige :

© Key Bannerman

Copilot existe sous la forme de chatbots, d’applications de bureau, de plateformes pour les entreprises, d’outils pour développeurs, d’apps dans d’autres apps, dans des logiciels professionnels ou encore dans le matériel (la fameuse touche Copilot des Copilot+PC). Il existe même un Microsoft Copilot Studio pour créer d’autres Copilot !

Pour Key Bannerman, chaque équipe en interne doit prouver « qu’elle fait partie de l’histoire de l’IA », au risque sinon de se dissoudre dans le grand rien. Renommer tout et n’importe quoi Copilot ne serait qu’« un instinct de survie ».

L’IA générative a allumé la mèche d’une course à l’échalote entre les grands noms de la tech. Google aussi a tendance à apposer l’étiquette Gemini un peu partout. Mais, chez Microsoft, l’inflation de Copilot donne surtout l’impression que personne n’est au manche de l’avion — ou plutôt si : 80 copilotes.

De l’IA au chausse-pied

Reste à savoir à quoi sert tout ce petit monde. Un changement discret, réalisé en octobre dans les conditions d’utilisation de Copilot, a rebondi sur les réseaux sociaux ces derniers jours. Microsoft y explique — en gras et bien visible — que « Copilot est uniquement destiné à des fins de divertissement […] Ne vous fiez pas à Copilot pour obtenir des conseils importants. » Un message qui contraste avec le discours de l’entreprise, promouvant une IA « utile » pour les utilisateurs comme pour les entreprises.

Microsoft prévoit toutefois de modifier prochainement les termes et conditions de Copilot. « La formulation “à des fins de divertissement” est un héritage de l’époque où Copilot a été lancé comme un service d’accompagnement à la recherche dans Bing », a expliqué un représentant du groupe à PCMag. Une formulation qui ne reflète plus la manière dont l’IA est désormais utilisée. Ça va mieux en le disant.

C’est une manière pour l’éditeur de rappeler que son IA générative peut faire des erreurs. Un message plus ou moins similaire se trouve chez d’autres. Anthropic par exemple rappelle que « Claude est une IA et peut faire des erreurs », de même chez OpenAI avec ChatGPT qui peut aussi « commettre des erreurs ».

Trop de Copilot tue-t-il le Copilot ? Microsoft avait reçu un accueil glacial en fin d’année dernière, lors de la présentation d’une vision d’un Windows « agentique ». À tel point que l’éditeur a annoncé une réduction de la voilure des fonctions IA dans le système d’exploitation.

En mars, lors de l’annonce de changements en profondeur pour Windows 11, Microsoft laissait entendre que les intégrations inutiles de Copilot allaient disparaitre, à commencer par Capture et croquis, Photos, Widgets et Bloc-notes.

Reçu — 7 avril 2026 Next - Articles gratuits

Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

7 avril 2026 à 14:18
CNRS, est-ce, esse
Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

Alors que son budget initial pour 2026 prévoyait déjà un déficit de 239 millions d’euros, le CNRS annonce en interne devoir procéder à un tour de vis supplémentaire de 20 millions d’euros, dont une partie sera répercutée sur la dotation aux unités de recherche. Certains projets seraient de ce fait menacés.

Un courrier du PDG du CNRS, Antoine Petit, adressé le 24 mars aux directeurs d’unité et qu’a pu consulter l’AFP, évoque un budget initial 2026 déficitaire de 239 millions d’euros « directement lié à des reprises de subventions mises en œuvre depuis 2024 ».

« La baisse des crédits n’a pas pu épargner la dotation des laboratoires », précise le courrier, qui avance que « le montant cumulé de ces charges représente plus de 500 millions d’euros depuis octobre 2024 », souligne Libé.

Une baisse à rapporter aux 2,9 milliards d’euros de dotation annuelle du principal organisme de recherche français. Il emploie 34 000 agents, dont plus de 10 000 chercheurs, soit le plus grand opérateur de l’État après France Travail, selon le rapport de la Cour des comptes de mars 2025, qui le qualifiait d’« opérateur de recherche unique en son genre, dont l’excellence est universellement reconnue et dont les comptes sont sains ».

Contacté par l’AFP, le ministère de l’Enseignement supérieur et de la Recherche évalue quant à lui à « 120 millions d’euros » le montant des charges non compensées « sur la période 2024 - 2026 ».

Une baisse de 5 % du financement du CNRS aux laboratoires

Le CNRS confirme de son côté à l’AFP que « jusqu’à présent le CNRS avait trouvé des marges de manœuvres permettant de ne pas répercuter la contrainte budgétaire sur les moyens financiers alloués aux laboratoires, mais c’est désormais malheureusement impossible ».

Matignon aurait en effet demandé au CNRS de procéder à un tour de vis supplémentaire sur son budget initial, du fait de perspectives budgétaires « particulièrement contraintes ».

« Dans ce contexte, le cabinet du Premier ministre a demandé au CNRS de présenter un budget rectificatif incluant une diminution des prévisions de dépenses de 20 M€ afin de conserver une trésorerie non fléchée de quelques dizaines de millions d’euros en fin d’exercice 2026 », écrit le PDG dans son courrier du 24 mars, reproduit par le syndicat SNCS-FSU.

Antoine Petit souligne qu’il a été fait le choix de « préserver le scénario quinquennal 2023 - 2027 des recrutements annuels par concours (270 chercheurs et 360 ingénieurs et techniciens) prévus dans le cadre de la loi de la programmation de la recherche ».

Dans une précédente déclaration, le syndicat soulignait qu’au total, « 20 millions d’euros d’économies sont imputés au fonctionnement, équipement et investissement : 13,5 millions d’euros sont pris aux laboratoires, soit une baisse de 5 % du financement du CNRS aux laboratoires, et 6,5 millions d’euros sont économisés sur des investissements en immobilier ».

« Le budget rectificatif n°1 inscrit à l’ordre du jour du CA du 13 mars nous est parvenu la veille vers 15 h » s’insurge une déclaration intersyndicale. Elle évoque un comportement « inadmissible » découlant « de choix politiques qui ne font aucun cas du CNRS et de ses personnels et [impactant] l’avenir de notre organisme », et affirme que « nos tutelles veulent imposer une austérité encore plus drastique au CNRS » :

« Le sous-financement chronique de la recherche publique française conduit au déclassement du pays par rapport à ses homologues européens et internationaux. »

« Un niveau historiquement bas depuis 1980 »

Le SNCS-FSU « dénonce avec la plus grande fermeté ce budget dangereusement déficitaire, catastrophique pour le CNRS et la recherche publique en France », à mesure que « ce budget du CNRS porte la masse salariale sur subvention d’État à 91 % de cette subvention, ce qui rend impossible toute mesure d’économie sans atteindre les activités de recherche du CNRS » : « Ce budget 2026 marque un tournant majeur avec une nouvelle étape dramatique dans les reniements des gouvernements successifs de ces vingt dernières années envers la recherche publique. »

Le syndicat avance que l’État « n’a jamais respecté l’engagement européen qu’il avait pris d’investir, dès 2010, 3 % du produit intérieur brut (PIB) pour la recherche et développement (R&D), dont 1 % du PIB pour la recherche publique ».

Il « a été insincère avec la Loi de programmation de la recherche de 2020 (LPR) » qui, plutôt que de rattraper le retard et d’atteindre 1 % du PIB pour la recherche publique, « a ramené son budget à un niveau historiquement bas depuis 1980, à savoir 0,74 % du PIB en 2023 », un pourcentage qui « sera encore plus faible cette année » :

« Alors qu’une accélération de la programmation budgétaire de la LPR est indispensable, c’est le contraire qui est programmé par le gouvernement pour la deuxième année consécutive. Ce budget devrait encore participer à l’érosion de l’emploi scientifique pérenne sur subvention d’État et donc à la chute d’attractivité du CNRS et à l’affaiblissement de notre établissement. »

« À la fin de l’année, il n’y aura plus de réserve »

« Cette année, pour la première fois, une partie des crédits de fonctionnement nous a été donnée avec l’argent des ressources propres, c’est-à-dire la réserve budgétaire », explique à l’AFP Vincent Artero, directeur du Laboratoire de Chimie et Biologie des Métaux : « On comprend qu’il n’y avait pas assez de subventions d’État pour nous donner ce qu’ils nous donnaient d’habitude. On prend sur nos réserves. Mais à la fin de l’année, il n’y aura plus de réserve. »

« Nous avons des remontées très inquiètes en particulier de nos collègues en sciences humaines et sociales », précise à l’AFP Fabrice Kordon, coprésident de l’Assemblée des directeurs de laboratoires.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère »

Au point que quelques directeurs envisagent l’arrêt de certains projets à compter d’octobre. « Les recherches les plus impactées directement sont celles qui vont être les plus dépendantes des équipements », explique à l’AFP Matthieu Refregiers, au nom du Comité des directeurs de laboratoires CNRS d’Orléans.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère. Quelqu’un passe et dit : Vous êtes sûr que vous l’avez perdue là ? Non, je l’ai perdue là-bas. Mais alors pourquoi vous cherchez ici ? Parce qu’ici, il y a de la lumière : ça, c’est la science selon nos politiques, trop sensibles aux effets de mode », ironise Fabrice Kordon.

Une situation qui, résume l’AFP, oblige les laboratoires à se concurrencer pour trouver des financements, les rapprochant du modèle anglo-saxon, et privilégiant les recherches qui sont dans l’actualité.

« Un même chercheur, deux fois plus de résultats, pour un coût perçu constant », résume une note interne consacrée à des travaux exploratoires sur l’optimisation des ressources humaines, qui précise que les implications éthiques seront examinées « dans un second temps, si nécessaire », relève la CFDT Recherche EPST.

Concrètement, les équipes de recherche vont en outre devoir rendre une partie de l’argent déjà versé pour leur année 2026, un revers « inédit », souligne Libé.

Nota bene relatif au sous-titre : l’esse est un crochet de boucherie en forme de S, destiné à suspendre les carcasses.

Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

7 avril 2026 à 12:37
J’ai ma IA en local
Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

Juste avant le week-end prolongé de Pâques, Google a lancé son nouveau modèle Gemma 4, en open source avec une licence relativement permissive : Apache 2.0. Il est proposé en quatre variantes, de 2,3 à 30,7 milliards de paramètres ; de quoi tourner sur une large gamme de terminaux.

C’est une annonce importante dans le monde des grands modèles de langage open source (y compris les poids) : Gemma 4 de Google (DeepMind). Ce n’est pas la première fois qu’un modèle open source sous licence Apache 2.0 est publié, mais c’est un mouvement intéressant de Google dans le secteur.

De 2,3 à 30,7 milliards de paramètres, avec une « mixture »

Quatre modèles Gemma 4 sont disponibles : E2B, E4B, 26B A4B et 31B. Ils proposent respectivement 2,3, 4,5 , 25,2 et 30,7 milliards de paramètres. A4B est un modèle Mixture of Experts (MoE) avec seulement 3,8 milliards de paramètres actifs pour chaque token.

Ils sont multimodaux, c’est-à-dire qu’ils « traitent les entrées de texte et d’image (l’audio est pris en charge sur les petits modèles) et génèrent des sorties de texte ».

Un MoE est un grand modèle dont seulement une partie est utilisée en inférence, réduisant les besoins en puissance de calcul. Afin de distinguer facilement les modèles, Google utilise une nomenclature spéciale au début du nom en fonction du nombre de paramètres : E pour effectifs, A pour actifs.

Les deux petits modèles de 2,3 et 4,5 milliards de paramètres ont une largeur de contexte de 128 000 jetons, contre 256 000 pour les deux autres. Gemma 4 dispose d‘un « mode de raisonnement intégré qui permet au modèle de réfléchir étape par étape avant de répondre ». La taille du dictionnaire est de 262 000 mots.

Il est capable d’analyser des images et des vidéos, propose une prise « en charge native de l’utilisation structurée des outils, permettant des workflows d’agent » et, c’est dans l’air du temps, la « génération, complétion et correction de code ». E2B et E4B disposent aussi d’une fonction de reconnaissance vocale.

Tous les détails se trouvent par ici. Google propose aussi des résultats de benchmarks maison et compare ses quatre modèles Gemma 4 à la version 27B (27 milliards de paramètres, sans raisonnement) de Gemma 3. Cette annonce intervient au moment même ou Anthropic a décidé de revoir sa gestion des comptes payants, avec le passage obligatoire via l’API pour les applications tierces.

Gemma 4 en open source passe sous licence Apache 2.0

Google propose ses modèles sous la licence Apache 2.0. Comme le rappelle Wikipédia, elle est « considérée comme permissive car elle accorde des droits étendus aux utilisateurs, tout en imposant relativement peu de restrictions […] D’autoriser la modification et la distribution du code sous toute forme (libre ou propriétaire, gratuit ou commercial) et, d’autre part, d’obliger le maintien du copyright lors de toute modification ».

Pour ses précédents modèles, Google utilisait une licence maison baptisée « Gemma Terms of Use ». Elle précise notamment « que Google se réserve le droit de restreindre l’utilisation de tout service Gemma que Google estime raisonnablement être en violation du présent accord ».

Google rejoint ainsi Mistral et son modèle 7B (septembre 2023), OpenAI avec gpt-oss-120b, ainsi que Qwen d’Alibaba, qui sont sous licence Apache 2.0. Avec ses modèles LLaM, Meta propose une « licence limitée », avec des restrictions.

Google met largement en avant le côté open source de Gemma 4 : « les modèles ouverts sont des systèmes d’IA dont les poids du modèle sont publiquement disponibles pour que n’importe qui puisse les télécharger, les étudier, les affiner et les utiliser sur son propre matériel (téléphones, ordinateurs, etc.) ». Un des avantages des modèles ouverts est en effet de pouvoir les faire tourner en local sur votre ordinateur, sans envoyer aucune donnée en ligne.

En fonction de la précision, la taille occupée en mémoire pour les modèles varie de 3,2 à près de 60 Go, laissant en effet entrevoir une large gamme d’appareils compatibles. Nous reviendrons prochainement avec quelques tutos pour installer des IA génératives en local.

☕️ Un Alsacien arrêté pour avoir évoqué le meurtre d’agents du renseignement à une IA

7 avril 2026 à 09:01


Après avoir évoqué son intention d’acheter une arme pour « tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI » au cours d’une discussion avec un outil d’intelligence artificielle, un Strasbourgeois de 37 ans s’est vu arrêté, chez lui, ce 3 avril.

Des enquêteurs du FBI, aux États-Unis, ont repéré le message et l’ont transmis à la plateforme française de signalement de contenu illicite Pharos, rapportent Les Dernières Nouvelles d’Alsace, puis le Raid est intervenu et a interpellé le suspect. Aucune arme n’a été retrouvée chez lui.

Suivi pour antécédents psychiatriques, il a en revanche été hospitalisé.

Illustration : Flock

Aux États-Unis, le recours à l’IA à des fins de surveillance de masse par les autorités fait largement débat, notamment depuis l’ultimatum imposé à Anthropic pour que l’entreprise lève les quelques restrictions d’usage de ses outils.

Comme l’entreprise a maintenu son refus de voir ses outils utilisés pour de la « surveillance intérieure de masse » (et pas pour de la surveillance extérieure) et des « armes complètement autonomes », le Pentagone s’est tourné vers son concurrent OpenAI.

Au Canada, après la tuerie de Tumbler-Ridge, OpenAI s’était retrouvé sous le feu des critiques pour ne pas avoir transmis aux autorités des informations relatives à Jesse Van Rootselaar. Si le compte de la tireuse avait été suspendu, la teneur de ses échanges avec ChatGPT n’avaient pas été relayés par l’entreprise, quand bien même ils décrivaient des scénarios de violence armée.

Les principaux modèles indiquent par ailleurs se tourner vers les forces de l’ordre en cas de nécessité. OpenAI précise par exemple dans ses spécifications de modèles recourir « à une surveillance automatisée pour détecter d’éventuelles violations de nos conditions d’utilisation » et, après examen par un humain, « saisir les autorités judiciaires dans les cas présentant une menace imminente de préjudice physique grave ou d’autres risques sérieux pour la sécurité publique ».

☕️ Dans sa lutte contre Epic, Apple se tourne de nouveau vers la Cour suprême

7 avril 2026 à 08:45


Il y a trois ans, Apple s’était tourné vers la Cour suprême (la plus haute juridiction des États-Unis) dans son différend avec Epic sur la commission de 30 % de son App Store. Quelques mois plus tard, elle bottait en touche en refusant d’intervenir, sans donner plus d’explication.

Ce n’était pas la fin de la guerre entre les deux entreprises, loin de là. Dernier événement en date, Apple a perdu en grande partie son appel contre Epic fin 2025, mais gardait tout de même la possibilité de faire payer des commissions « raisonnables » sur les paiements externes. Apple avait demandé au tribunal de revoir sa décision, mais les juges ont refusé à l’unanimité (pdf).

Comme le rapporte Engadget, Apple se tourne désormais vers la Cour suprême (pdf) pour lui demander « d’examiner quand et comment elle peut percevoir des commissions sur les achats mobiles effectués via des systèmes de paiement tiers ». L’entreprise demande aussi à la cour d’appel de suspendre sa décision, le temps que la Cour suprême se prononce.

portrait de Tim Cook façon Steve Jobs
Illustration : Flock

La 9ᵉ cour d’appel a cette fois-ci accepté la demande d’Apple et Epic voit rouge. Le père de Fortnite demande au tribunal de « réexaminer la décision d’aujourd’hui accordant la requête d’Apple pour suspendre l’exécution de la décision ».

« L’effort d’Apple pour suspendre l’exécution de la décision de cette Cour ne vise rien d’autre que gagner du temps », affirme Epic. Pour l’entreprise, cela « permet à Apple de continuer d’engranger des profits ». Dans ce climat tendu, ajoute Epic, « la plupart des développeurs réagissent à l’incertitude en s’abstenant » de proposer des alternatives.

Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

7 avril 2026 à 08:13
Phallometrics
Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

Anthropic, éditeur des modèles Claude, a annoncé dimanche un accord d’approvisionnement auprès de Google et de Broadcom destiné à renforcer ses infrastructures de calcul, principalement aux États-Unis. L’entreprise a dans le même temps affirmé avoir atteint 30 milliards de dollars de chiffre d’affaires projeté sur un an, contre 9 milliards de dollars en décembre dernier. Elle serait donc passée devant OpenAI.

Anthropic a profité du week-end de Pâques pour lâcher sa petite bombe à destination des marchés financiers et des investisseurs : au détour d’une communication relative à un nouvel accord pluriannuel avec Google et Broadcom, l’éditeur des modèles Claude a déclaré avoir atteint un volume d’activité suffisant pour pouvoir se projeter sur un chiffre d’affaires annualisé supérieur à 30 milliards de dollars.

Le montant annoncé témoigne d’une croissance aux allures d’exponentielle : Anthropic évoquait en effet une projection de chiffre d’affaires annuel de l’ordre de 9 milliards de dollars en décembre 2025. L’activité aurait donc été multipliée par plus de trois en seulement un trimestre.

« Lors de l’annonce de notre levée de fonds en série G en février, nous avions indiqué que plus de 500 entreprises clientes dépensaient chacune plus d’un million de dollars par an. Aujourd’hui, ce nombre dépasse les 1 000, soit le double en moins de deux mois », ajoute Anthropic. Annoncée le 12 février dernier, cette série G (septième tour de financement depuis l’amorçage) avait permis à l’entreprise de lever 30 milliards de dollars sur la base d’une valorisation de 380 milliards de dollars.

Un chiffre d’affaires annualisé supérieur à celui d’OpenAI ?

Si l’annonce d’Anthropic marque les esprits, c’est aussi et surtout parce que le chiffre d’affaires annuel projeté dépasse, pour la première fois, les indicateurs du grand concurrent OpenAI.

La firme dirigée par Sam Altman se montre généralement plutôt avare en matière de données financières, mais elle vient en effet elle aussi de donner une projection récente. Le 31 mars dernier, elle affirmait ainsi réaliser 2 milliards de chiffre d’affaires par mois, à l’occasion d’un point d’étape sur sa dernière levée de fonds en cours (au montant record de 122 milliards de dollars).

2 * 12, 24 milliards : le rythme actuel de chiffre d’affaires d’OpenAI révèle bien une projection inférieure aux chiffres avancés par son compétiteur.

Arithmétique floue

Dans cette bataille de chiffres superlatifs, il convient toutefois de noter que l’indicateur retenu par Anthropic est particulièrement flou. Dario Amodei et ses équipes parlent d’un run rate supérieur à 30 milliards de dollars par an. Or ce run rate est une extrapolation : on prend le chiffre d’affaires à un instant T, sur la période qui nous arrange, et on le multiplie par la constante nécessaire pour arriver à une projection sur douze mois.

Dit autrement, Anthropic pourrait avoir réalisé une particulièrement bonne journée le 5 avril, et décidé de multiplier ce chiffre d’affaires par 365 pour afficher, sans mentir, une projection annualisée très optimiste.

En face, OpenAI laisse entendre qu’il y a dans ses propres revenus une base de récurrence plus stable. « À la fin de 2024, nous générions 1 milliard de dollars par trimestre. Nous générons désormais 2 milliards de dollars de revenus par mois », écrivait l’entreprise dans son billet du 31 mars.

Du point de vue de l’utilisateur final, cette course à qui a le plus gros chiffre d’affaires n’a sans doute que peu d’intérêt, et l’on sera sans doute nettement plus sensible aux limitations que vient de mettre en place Anthropic autour des abonnements Claude pour encourager le recours aux API facturées au token.

La trajectoire du chiffre d’affaires, réelle ou projetée, intéresse en revanche vivement les investisseurs, soucieux de savoir si et quand OpenAI ou Claude pourront atteindre un volume d’activités suffisant pour compenser leurs faramineuses dépenses d’investissement. Le sujet est d’autant plus critique qu’on prête aux deux fondateurs, Dario Amodei et Sam Altman, l’intention d’introduire leur entreprise en bourse.

Anthropic renforce ses liens avec Google et Broadcom

En attendant, Anthropic revendique des liens consolidés avec les grands acteurs susceptibles de répondre à ses besoins en matière de calcul. L’entreprise indique en effet avoir signé de nouveaux accords avec Google et Broadcom, portant sur l’approvisionnement en TPU (puces dédiées à l’inférence IA) de nouvelle génération à compter de 2027. Elle ne donne aucun chiffre sur les sommes en jeu, la nature exacte de ces puces, ou l’éventuelle puissance électrique qui pourrait leur être nécessaire.

« La grande majorité des nouveaux serveurs seront situés aux États-Unis, ce qui fait de ce partenariat un élargissement majeur de notre engagement pris en novembre 2025 d’investir 50 milliards de dollars dans le renforcement de l’infrastructure informatique américaine », précise tout de même Anthropic. En octobre dernier, la société évoquait l’utilisation d’un million de TPU fournis par Google, principalement via l’offre cloud du géant de la recherche.

« Claude reste le seul modèle d’IA de pointe disponible pour les clients sur les trois plus grandes plateformes cloud du monde : Amazon Web Services (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry) », fait valoir Anthropic. Là encore, l’accent est mis sur un élément susceptible de rassurer les marchés. Dans un contexte d’incertitudes quant à la réalité des investissements promis en matière de datacenters, accentué par les conséquences de la guerre en Iran, la société fait valoir qu’elle est en mesure de s’appuyer sur les trois principaux hyperscalers du marché, quand OpenAI doit ménager les susceptibilités entre son actionnaire historique, Microsoft, et le principal participant à son dernier tour de table, Amazon.

☕️ Ventoy fête ses six ans et corrige un bug avec les distributions Linux immuables

7 avril 2026 à 07:32


C’est en effet le 5 avril 2020 que la première version de Ventoy a été mise en ligne, rapidement suivie d’une 1.0.01 pour corriger un vilain bug. Nous en parlions la même année avec la mise en ligne de la version 1.0.22. C’est pour rappel un outil permettant de créer des clés USB multi-ISO bootable, concurrent de Rufus.

La version 1.1.11 a été mise en ligne le 5 avril 2026 et signe donc le sixième anniversaire de l’application. Dans les notes de version, pas grand chose d’autre que des correctifs et autres améliorations, en plus de la prise en charge de KylinSecOS.

Un point important tout de même pour Ventoy2Disk.sh dont l’installation échouait « sur les distributions Linux immuables » : c’est désormais corrigé. Il s’agit de systèmes « où les fichiers principaux du système d’exploitation sont en lecture seule, empêchant ainsi les modifications involontaires ou malveillantes », explique Neowin. C’est le cas de Fedora Silverblue et openSUSE MicroOS, ajoutent nos confrères.

Pour télécharger Ventoy, c’est par ici.

Anthropic change ses règles du jeu, des applications tierces aux limites des sessions

7 avril 2026 à 07:02
Faire moins ou payer plus
Anthropic change ses règles du jeu, des applications tierces aux limites des sessions

Durant le week-end, Anthropic a annoncé et déployé quasiment dans la foulée un changement important de son modèle économique : les services tiers ne sont plus intégrés aux abonnements Claude, il faut passer par l’API. Cela a des conséquences importantes pour les clients, notamment ceux qui se sont lancés sur OpenClaw.

Anthropic propose une formule gratuite permettant d’accéder à son IA générative Claude, avec d’importantes restrictions d’usage. Pour débloquer les fonctionnalités supplémentaires et augmenter le temps d’utilisation, il faut passer à la caisse avec un abonnement Pro ou Max pour les particuliers, Team ou Enterprise pour les pros.

Une autre possibilité est d’utiliser l’API, avec une facturation à l’usage. Cela varie de 1 et 5 dollars par million de jetons en entrée et en production (les réponses) pour le modèle léger Haiku, à respectivement 5 et 25 dollars pour le modèle le plus performant, Opus.

Anthropic impose son API pour les applications tierces : OpenClaw en ligne de mire

Jusqu’à présent, les abonnements permettaient d’utiliser Claude dans les applications tierces, dans la limite des restrictions mises en place, évidemment. Désormais, ce n’est plus le cas.

Le changement a été annoncé samedi par Boris Cherny, responsable de Claude Code chez Anthropic, avec une mise en place prévue pour le lendemain : « Les abonnements Claude ne couvriront plus l’utilisation d’outils tiers comme OpenClaw […] La capacité est une ressource que nous gérons avec soin et nous donnons la priorité à nos clients utilisant nos produits et notre API ».

Pour faire passer la pilule et « offrir » la première dose, le responsable ajoute que les « abonnés reçoivent un crédit équivalent au coût de leur abonnement mensuel ». Les clients ont reçu pendant le week-end un email pour réclamer leur « cadeau ».

Dans le message envoyé aux abonnés, une « remarque importante » confirme la déclaration précédente, avec une mise en place le jour même : « À compter du 4 avril, les outils tiers comme OpenClaw connectés à votre compte Claude seront facturés comme une consommation supplémentaire et non plus via votre abonnement ».

OpenClaw est directement cité dans la communication d’Anthropic. Il s’agit, pour rappel, d’un agent IA qui a défrayé la chronique au début de l’année. Son créateur, Peter Steinberger, a rejoint OpenAI mi-février, « pour piloter la prochaine génération d’agents personnels ».

Il s’est exprimé sur X suite à ce changement de politique qu’il trouve « triste pour l’écosystème ». Il annonce au passage que la dernière version d’OpenClaw inclut des « correctifs pour une meilleure utilisation du cache, afin de réduire les coûts pour les utilisateurs de l’API ».

« Demande croissante sur Claude » : Anthropic modifie ses conditions d’usage

Ce n’est pas le seul changement de ces dernières semaines : « Pour répondre à la demande croissante sur Claude, nous ajustons nos limites des sessions de 5 h pour les abonnements gratuits, Pro et Max pendant les heures de pointe. Vos limites hebdomadaires restent inchangées. En semaine entre 5 h et 11 h PT, ainsi qu’entre 13 h et 19 h GMT, vous épuisez vos limites de session de 5 heures plus rapidement qu’auparavant », explique un responsable de Claude Code sur X.

« Nous avons réalisé de nombreux gains d’efficacité pour compenser cela, mais environ 7 % des utilisateurs atteindront des limites de session qu’ils n’auraient pas atteintes auparavant, en particulier pour les niveaux pro. Si vous exécutez des tâches en arrière-plan gourmandes en tokens, les décaler aux heures creuses étendra davantage vos limites de session », explique-t-il. La grogne des clients s’est rapidement faite entendre dans les réponses à cette publication.

Comme le rapporte Le Figaro, une publication Reddit a mis le feu aux poudre le mois dernier. Un internaute affirme avoir trouvé des bugs dans la mémoire cache de l’IA qui « multiplient par 10 à 20 vos consommations ».

Anthropic a annoncé enquêter et, le 2 avril, Lydia Hallie (développeuse Claude Code) a pris la parole sur X : « Les limites en heure de pointe sont plus strictes […] c’est en grande partie ce que vous ressentez. Nous avons corrigé quelques bugs en cours de route, mais aucun ne vous facturait excessivement ».

Elle donne quelques conseils. Elle propose d’utiliser Sonnet 4.6, qui est « le choix par défaut le plus performant sur Pro. Opus consomme [les tokens] environ deux fois plus vite ». Elle recommande aussi de « commencer une nouvelle session plutôt que de reprendre de grandes sessions qui ont été inactives ~1 h », et enfin de limiter votre fenêtre de contexte. Là encore, les clients font part de leur mécontentement en guise de réponse.

C’est aussi un moyen pour Anthropic de pousser ses clients sur une offre plus chère s’ils veulent continuer d’utiliser Claude plus ou moins comme avant. Pour rappel, la formule Pro est à 15 euros par mois, mais le palier du dessus est à 90 euros minimum par mois pour Max. Il y a également l’API avec un paiement à l’usage.

Fuite de Claude Code et de Mythos

Ces derniers jours, Anthropic était au cœur des gros titres de la presse, pour deux raisons. La première concerne la fuite d’une partie du code de Claude Code justement. Si le modèle en lui-même n’est pas publié (le cerveau de Claude Code), le squelette, ses muscles et articulations sont désormais accessibles à tout le monde.

Peu de temps avant, plus de 3 000 documents avaient « fuité » avec un nouveau modèle baptisé Mythos. Il se place au-dessus d’Opus, le modèle actuellement le plus performant d’Anthropic… et donc plus couteux à faire tourner.

Reçu — 3 avril 2026 Next - Articles gratuits

Au CNRS, un chiffrement « inviolable » à base d’ADN

3 avril 2026 à 14:08
aHR0cHM6Ly93d3cueW91dHViZS 5jb20vd2F0Y2g/dj1kUXc0dzlXZ1hjUQ==
Au CNRS, un chiffrement « inviolable » à base d’ADN

L’ADN peut générer de longues chaines de données aléatoires, ce qui est parfait pour créer de grands masques jetables pour chiffrer des données, avec une protection « inviolable ». Le CNRS présente ses travaux, qui mélangent ADN et chiffre de Vernam.

Dans un précédent article, nous étions revenus sur les méthodes de chiffrement en informatique des dernières décennies. Nous avons également analysé la menace quantique ainsi que le chiffrement hybride qui mélange les deux mondes. Au milieu de tout cela, il existe depuis plus de 100 ans un algorithme de chiffrement inviolable : le masque jetable ou chiffre de Vernam.

Juste des permutations… mais sur chaque caractère

Le principe de base est simple : il s’agit ni plus ni moins d’une permutation de l’alphabet, mais avec une clé aussi longue que le message à chiffrer. Il faut par contre respecter une condition : la clé (ou masque) ne doit être utilisé qu’une seule fois et elle doit être totalement aléatoire (et ce n’est pas si facile de faire du 100 % aléatoire).

Avec une clé de la taille du message et une rotation aléatoire de l’alphabet à chaque lettre, un message de 10 caractères pourrait être transformé en n’importe quel mot (ou groupe de mots) de 10 caractères, sans savoir lequel est le bon.

Imaginez avec un message chiffré plus court, par exemple ABC, il pourrait aussi bien s’agir de OUI, que NON, DIX, TES, ZUT… sans pouvoir trouver le message en clair si vous n’avez pas la bonne clé. On parle de sécurité inconditionnelle, « c’est-à-dire indépendante de la puissance de calcul d’un adversaire », et on peut le prouver dans le cas présent.

Avec l’ADN, de très grandes clés aléatoires

Le problème du chiffre de Vernam est double : d’abord, générer des clés de très grandes tailles et aléatoires, puis échanger physiquement les clés. Dans le premier cas, le CNRS propose une solution : l’ADN : « Chaque molécule d’ADN est composée de quatre bases chimiques (A, T, C et G), et les chimistes sont capables de synthétiser commercialement de longues chaines dont l’ordre des bases est statistiquement aléatoire. Ces séquences d’ADN peuvent ensuite être copiées à l’identique, à l’aide de processus enzymatiques, et ainsi partagées entre un expéditeur et un destinataire ».

L’ADN coche toutes les cases avec une densité de stockage et une stabilité remarquables  : « correctement conservé, le polymère peut rester intact pendant des milliers d’années et il suffit de quelques milligrammes pour stocker des exaoctets d‘information binaire, soit l’équivalent d’un million de disques durs ». Stocker autant de données dans aussi peu de place avec un autre système c’est actuellement… compliqué.

Des candidats parfaits pour les masques, mais il faut toujours les échanger sans la moindre interception, sinon toute la sécurité s’effondre si une tierce partie récupère une copie des clés. L’avantage de l’ADN c’est qu’il ne prend pas beaucoup de place et qu’il est facile à transporter.

Pour le CNRS, les principales perspectives se trouvent dans « la protection des communications les plus sensibles, qu’il s’agisse d’échanges diplomatiques, militaires ou scientifiques ». Dans un second temps, cette technique « pourrait également trouver des applications dans des contextes extrêmes, notamment les communications spatiales ou les infrastructures numériques critiques où la fiabilité et l’inviolabilité des échanges constituent des enjeux majeurs ».

Ubisoft assigné en justice pour la fermeture des serveurs de The Crew

3 avril 2026 à 13:03
Video (games) killed the radio star
Ubisoft assigné en justice pour la fermeture des serveurs de The Crew

Dans le sillage de l’initiative européenne Stop Killing Games, l’UFC-Que Choisir a lancé des poursuites en justice à l’encontre d’Ubisoft. L’association de consommateurs reproche à l’éditeur français d’avoir fermé les serveurs qui permettaient au jeu The Crew de fonctionner, privant de ce fait les consommateurs de l’usage d’un jeu qu’ils avaient pourtant acheté sans date de fin de vie programmée.

La boucle est bouclée. C’est la fermeture programmée des serveurs du jeu de course The Crew qui a motivé l’émergence de l’initiative européenne Stop Killing Games, en 2024, et c’est quelques semaines après la reconnaissance formelle de cette initiative citoyenne par la Commission européenne qu’une procédure en justice à l’encontre d’Ubisoft voit le jour.

Ubisoft poursuivi pour la fermeture des serveurs de The Crew

En France, c’est l’UFC-Que Choisir qui initie ces poursuites devant le tribunal judiciaire de Créteil. « L’UFC-Que Choisir estime qu’en privant brutalement les joueurs de tout accès à The Crew, Ubisoft a porté atteinte aux droits essentiels des consommateurs », indique l’association dans un communiqué daté du 31 mars.

L’UFC-Que Choisir ne publie pas les éléments de la procédure, mais explique que cette dernière se concentre sur le principe de « licence d’utilisation », derrière lequel se retranchent les éditeurs de jeux vidéo pour, parfois, révoquer l’accès à un contenu.

« La licéité de toutes les clauses limitant les droits des joueurs doit être interrogée », affirme l’association, qui souhaite voir la justice s’exprimer sur la négation du droit de propriété conféré à l’acheteur d’un jeu, mais aussi sur cette faculté de retirer l’accès au contenu sans garantie de maintien d’un mode de fonctionnement alternatif.

Elle interroge également la subordination de l’utilisation du jeu à des services en ligne susceptibles d’être interrompus, et une pratique commerciale moins spécifiquement liée à The Crew : le refus de rembourser les sommes créditées par des joueurs sur leur compte en ligne.

Une partie de la charge porte également sur ce que l’association qualifie de pratique commerciale trompeuse : « les joueurs n’ont jamais été loyalement informés sur le caractère éventuellement temporaire de l’accès au jeu qu’ils achetaient ».

Toute la subtilité réside ici dans l’appréciation du caractère loyal de cette information. À la date de publication de cet article, le 3 avril 2026, les conditions d’utilisation d’Ubisoft disposent par exemple explicitement que l’éditeur peut modifier les contenus et services associés à ses jeux, notamment « afin de limiter ou d’interrompre les fonctionnalités obsolètes ou non viables du Contenu et/ou des Services lorsque cela est raisonnable ».

« Sauf indication contraire de notre part, nous ne garantissons pas la disponibilité d’un Service ou d’un Contenu pendant une période déterminée », énoncent encore ces conditions d’utilisation.

Les éditeurs à l’unisson

L’enjeu n’est pas anodin pour les éditeurs, puisque le maintien en conditions opérationnelles d’un jeu dépendant de services en ligne suppose des coûts. Le secteur s’était d’ailleurs exprimé de façon coordonnée sur le sujet en juillet dernier, quand la mobilisation autour de Stop Killing Games battait son plein, par l’entremise de sa représentation européenne, Videogames Europe :

« Nous apprécions l’enthousiasme de notre communauté ; cependant, la décision d’interrompre les services en ligne est complexe, jamais prise à la légère, et doit être une option pour les entreprises lorsqu’une expérience en ligne n’est plus commercialement viable. Nous comprenons que cela puisse être décevant pour les joueurs, mais, le cas échéant, le secteur veille à ce qu’ils soient informés des changements envisagés, conformément à la législation locale sur la protection des consommateurs ».

À cette occasion, les éditeurs avaient battu en brèche l’idée de laisser prospérer des serveurs privés gérés par la communauté :

« Les serveurs privés ne constituent pas toujours une alternative viable pour les joueurs, car les protections mises en place pour sécuriser leurs données, supprimer les contenus illégaux et lutter contre les contenus communautaires dangereux seraient inexistantes et les détenteurs de droits seraient tenus responsables. De plus, de nombreux jeux sont conçus dès le départ pour être exclusivement joués en ligne ; de fait, ces propositions limiteraient la liberté de choix des développeurs en rendant la création de ces jeux vidéo excessivement coûteuse. »

En attendant l’examen de ce dossier par le tribunal judiciaire de Créteil, la question de la pérennité des jeux vidéo est désormais posée auprès de la Commission européenne. Saisie suite à une pétition au succès historique avec près de 1,3 million de signatures validées au moment de son enregistrement, elle est censée produire, d’ici au 27 juillet 2026, une réponse écrite listant ses éventuelles décisions en la matière.

Rappelons que l’UFC-Que Choisir a mené pendant près de dix ans un combat juridique contre Valve, l’éditeur de la plateforme Steam, pour tenter d’obtenir la suppression d’un certain nombre de clauses qu’elle considérait comme abusives, telles que l’impossibilité de revendre un jeu dématérialisé. Elle fondait à l’époque sa requête sur la règle juridique de « l’épuisement des droits ». Défaite devant la cour de cassation en octobre 2024, l’association a saisi la Commission européenne d’un recours en manquement en février 2025.

☕️ Google Meet s’invite sur Apple CarPlay, en attendant Android Auto

3 avril 2026 à 09:38


Google a annoncé jeudi 2 avril la prise en charge de Meet, son client de visioconférence, au sein de l’environnement Apple CarPlay :

« Cette fonctionnalité est conçue pour assurer une transition fluide entre votre appareil mobile iOS et votre véhicule, vous permettant ainsi de ne jamais manquer une conversation importante. Que vous soyez en trajet domicile-travail ou entre deux rendez-vous, vous pouvez désormais rejoindre des réunions d’un simple clic, consulter votre agenda et participer à des appels audio pour rester concentré sur la route. »

Google mentionne spécifiquement la nature audio uniquement des échanges pour lever tout soupçon : cette implémentation de Meet pour CarPlay n’autorise logiquement pas la vidéo, en émission comme en réception. Elle permet en revanche d’accéder aux réunions programmées directement sur l’écran de sa voiture.

Google Meet s’invite sur Apple CarPlay – crédit Google

La fonctionnalité est tournée en priorité vers les clients Google Workspace, mais elle est aussi accessible aux particuliers qui se connectent à des réunions Meet via un compte Google personnel, indique l’entreprise. Elle souligne par ailleurs qu’une version de Meet dédiée à Android Auto sera « bientôt » disponible.

Si Apple a été servi avant l’environnement maison, c’est probablement parce que Google a souhaité surfer sur l’introduction, via iOS 26.4, de nouveaux contrôles vocaux destinés à CarPlay. OpenAI a également saisi la balle au bond, en rendant l’application iOS ChatGPT accessible sur l’écran de bord. Le système n’autorise en revanche que des interactions vocales et audio.


OpenAI s’offre la chaîne tech TBPN pour « accélérer la conversation autour de l’IA »

3 avril 2026 à 08:51
In business we trust
OpenAI s’offre la chaîne tech TBPN pour « accélérer la conversation autour de l’IA »

OpenAI met un pied dans le monde des médias avec l’acquisition, annoncée jeudi 2 avril, de la chaîne tech TBPN, centrée sur la tech et l’univers de la Silicon Valley. TBPN, dont le talk show principal serait l’émission préférée de Sam Altman, doit permettre à l’entreprise d’accélérer la « conversation globale autour de l’IA ».

Ils alternent, selon les jours, entre la cravate, les polos de sport ou la veste de costume blanche, lisent l’édition papier du Wall Street Journal les pieds sur leur table jonchée de canettes de soda et sont à tu et à toi avec tout ce que la tech compte d’entrepreneurs en vue : bienvenue sur la chaîne TBPN (pour Technology Business Programming Network).

Une chaîne à la gloire de la Silicon Valley

Lancée fin 2024, TBPN diffuse chaque jour, pendant trois heures et en direct, une succession de séquences de commentaires d’actualités et d’interviews, principalement de fondateurs de startups. Sous leurs airs de yuppies, leurs vannes et le ton détendu, les deux animateurs revendiquent une approche soutenue sur le fond, légitimée par leur propre parcours. John Coogan et Jordi Hays ont en effet eux-mêmes créé plusieurs startups.

Jordi Hays et John Coogan présentent TBPN à raison de trois heures par jour – crédit TBPN

Âgés de respectivement 36 et 29 ans, ils affichent aussi et surtout une posture résolument pro-business. Les levées de fonds sont célébrées à coups de gong, les fondateurs invités sont exhortés à aller plus vite, plus loin, plus fort, et le duo ne se prive pas de jouer la carte de la provocation. Il envisageait d’ailleurs initialement d’appeler son émission Technology Brothers, en réaction au terme « tech bro », désormais connoté de façon négative. Vanity Fair résume leur état d’esprit dans un portrait publié en janvier dernier :

« Sur TBPN, le conflit d’intérêt est un atout, pas un défaut. Les deux animateurs sont chacun fortunés grâce à des cessions d’entreprises valant plusieurs millions de dollars et à des investissements providentiels. Ils savent ce que c’est que de lever des fonds d’amorçage, de finaliser une cession, d’évaluer une offre publique d’achat. Ils échangent régulièrement des SMS avec la moitié de la Silicon Valley. Ils évoquent nonchalamment les fêtes de Noël chez Thiel. »

Passé au format quotidien en janvier 2025, le carnet de bal des deux animateurs s’enorgueillit d’invités très prestigieux : Satya Nadella (Microsoft), Mark Zuckerberg (Meta), Marc Benioff (Salesforce), Alex Karp (Palantir) ou Sam Altman sont par exemple passés par son plateau pour commenter l’actualité du moment et, parfois, dévoiler quelques orientations stratégiques.

Et ça marche : d’après le Wall Street Journal, TBPN emploierait aujourd’hui onze personnes et serait rentable, avec environ 5 millions de dollars de chiffre d’affaires publicitaire en 2025, et une projection à plus de 30 millions de dollars pour 2026. Le show fédère déjà des annonceurs de premier plan : Shopify, Plaid, CrowdStrike, AppLovin ou Google pour Gemini font partie des sponsors, indique Adweek. En décembre 2025, consécration institutionnelle : il signe un partenariat avec la bourse de New York, qui relaie certains de ses programmes.

Les audiences sont relativement modestes, de l’ordre de 70 000 spectateurs par émission selon le WSJ, mais elles semblent suffisamment qualifiées pour que The Free Press qualifie TBPN de show le plus influent de la Silicon Valley en septembre 2025.

OpenAI s’offre un levier d’influence

« TBPN a construit quelque chose de vraiment spécial », salue Fidji Simo, la numéro deux d’OpenAI, en annonçant l’acquisition de la chaîne jeudi 2 avril.

Pourquoi racheter une chaîne YouTube alors que les propos de Sam Altman et les communications d’OpenAI sont déjà relayés, commentés et amplifiés par les médias du monde entier ?

« Nous ne sommes pas une entreprise comme les autres. Nous sommes à l’origine d’une véritable révolution technologique. Et notre mission, qui est de faire en sorte que l’intelligence artificielle générale profite à toute l’humanité, nous impose la responsabilité de contribuer à créer un espace de dialogue constructif et authentique sur les changements induits par l’IA, en plaçant au cœur de cette démarche les développeurs et les utilisateurs de cette technologie », écrit Fidji Simo.

Elle promet par ailleurs que l’équipe TBPN gardera son indépendance et sa liberté de ton, et affirme que les talents de communicants et les « instincts marketing » de John Coogan et Jordi Hays serviront à nourrir les équipes et les travaux d’OpenAI.

« TBPN est mon émission tech préférée. Nous voulons qu’ils continuent sur cette lancée et qu’ils fassent ce qu’ils font si bien. Je ne m’attends pas à ce qu’ils y aillent plus mollo avec nous, et suis sûr que je ferai ma part pour les y aider avec des décisions stupides à l’occasion », affirme de son côté Sam Altman.

« Bien que nous ayons parfois été critiques envers le secteur, après avoir fait la connaissance de Sam et de l’équipe d’OpenAI, ce qui nous a le plus marqués, c’est leur ouverture aux suggestions et leur engagement à réussir. Passer des simples commentaires à un impact concret sur la manière dont cette technologie est diffusée et comprise à l’échelle mondiale est extrêmement important pour nous », commentent les deux protagonistes du show.

☕️ Deux ans plus tard, Intel rachète déjà les 49 % manquants de sa Fab 34 en Irlande

3 avril 2026 à 06:50


Cette semaine, le fondeur a annoncé qu’il allait « racheter 49 % des parts de sa coentreprise irlandaise Fab 34 ». Il s’agit de récupérer la part qui avait été vendue il y a deux ans à peine au fonds Apollo, pour 11,2 milliards de dollars. Coût de l’opération cette fois-ci : 14,2 milliards de dollars.

Cette transaction a apporté à Intel « une plus grande souplesse financière et a permis à l’entreprise de libérer et de redéployer des capitaux pour faire avancer ses priorités stratégiques, notamment l’accélération du développement d’Intel 4 et 3, les plus avancés en Europe, ainsi que le processus Intel 18A, le plus avancé, développé et fabriqué aux États-Unis aujourd’hui ».

2024 était, pour rappel, une année compliquée pour Intel qui, après un mauvais trimestre, avait annoncé pas moins de 15 000 licenciements et recentré ses priorités stratégiques. Des investissements sont ensuite arrivés et l’administration Trump est même montée à 9,9 % du capital. Fin 2025, c’est même NVIDIA qui est entré au capital.

Fin 2023, la production de masse avec un procédé de gravure Intel 4 débutait dans la Fab 34 irlandaise. Meteor Lake (Core Ultra Série 1) exploite pour rappel Intel 4. Les Panther Lake (Core Ultra Series 3) sont pour leur part en Intel 18A et les premiers gravés aux États-Unis. L’usine irlandaise produit aussi des puces avec le procédé Intel 3, utilisé par des Xeon de 6ᵉ génération.

David Zinsner, CFO d’Intel, affirme que l’accord de 2024 « s’est avéré être la bonne solution au bon moment et a offert à Intel une flexibilité considérable, nous permettant ainsi d’accélérer dans la mise en œuvre d’initiatives essentielles. Aujourd’hui, nous disposons d’un bilan plus solide, d’une discipline financière renforcée et d’une stratégie commerciale modernisée ».

Suite à cette annonce, l’action d’Intel a bondi de près de 10 % et, encore aujourd’hui, elle est à 13 % de plus que son niveau fin mars.

☕️ Steam sur Linux dépasse pour la première fois les 5 %… mais attention aux chiffres de Valve

3 avril 2026 à 06:22


Au début de l’année, après un cafouillage sur les chiffres mis en ligne par Valve, Steam sur Linux atteignait une part de marché de 3,58 %.

Sur les trois premiers mois de l’année, les statistiques jouent un peu aux montagnes russes. Une petite baisse de 0,20 point début février pour arriver à 3,38 %. Puis de nouveau une baisse, mais plus franche cette fois-ci à 2,23 % début mars.

La part de marché de Linux est désormais de 5,33 %, sans que l’on comprenne pourquoi il y a de telles variations. La hausse est en effet de 3,10 points entre les statistiques de début mars et celles de début avril, loin d’être négligeable puisque la part de marché fait plus que doubler. macOS progresse de 1,19 point à 2,35 %, tandis que Windows perd 4,28 points à 92,33 %.

Dans le détail, SteamOS Holo 64 bit progresse de 0,65 point pour arriver à 24,48 % de part de marché sur les machines Linux seules. Un mystérieux « 0 64 bit » est en deuxième position avec 17,60 % tout de même (il vient de faire son entrée dans le classement), puis un autre identifié comme (64 bits) plus bas, qui fait aussi son entrée à+ 8,01 %.

Gamingonlinux tient à jour un tracker depuis 2018 et on peut voir la très forte progression de Linux sur Steam sur le dernier relevé de mars 2026 :

Bref, des chiffres à prendre pour le moment avec des pincettes tant ils soulèvent des questions. Ce ne serait pas la première fois que Valve mettrait à jour ses chiffres après les avoir publiés. Quoi qu’il en soit, la trajectoire sur le long terme est à la progression franche. Steam sur Linux a atteint les 2 % fin 2023 et les 3 % fin 2025 avec la fin du support de Windows 10. Si la barre symbolique des 5 % était confirmée, ce serait un nouveau palier important.

Reçu — 2 avril 2026 Next - Articles gratuits

☕️ 6 Go de mémoire vive sont désormais recommandés pour Ubuntu 26.04

2 avril 2026 à 14:42


La sortie de la première bêta d’Ubuntu 26.04 s’accompagne d’une petite info passée inaperçue au moment de la publication : Canonical a discrètement révisé à la hausse la quantité de mémoire vive recommandée pour le bon fonctionnement sur un poste de travail.

Les notes de version qui préparent la sortie de la version finale, programmée au 23 avril prochain, indiquent en effet qu’Ubuntu Desktop 26.04 LTS exige au minimum un processeur double cœur cadencé à 2 GHz, 25 Go d’espace de stockage et 6 Go de mémoire vive.

La dernière version LTS (Long Term Support, avec cinq ans de support garanti et cinq ans de support optionnel) affichait des exigences similaires en matière de processeur et de stockage, mais elle se contentait de 4 Go de mémoire vive.

Fonds d’écran Ubuntu Resolute Raccoon

Cette révision à la hausse ne signifie pas qu’Ubuntu 26.04 ne fonctionnera pas sur des machines équipées de moins de 6 Go de mémoire vive. OmgUbuntu, qui s’est le premier fait l’écho de cette découverte, y voit plutôt une forme de constat honnête. Les besoins intrinsèques au système d’exploitation n’ont pas particulièrement évolué, mais la configuration recommandée doit prendre en compte l’évolution des usages.

Avec toujours plus de multitâche, et la propension de certaines applications courantes à consommer toujours plus de mémoire vive, 6 Go peuvent en effet apparaître comme un minimum recommandé pour exploiter de concert l’environnement par défaut (GNOME 50), un navigateur Web et les applications courantes du quotidien.

En ces temps marqués par une envolée des prix de la mémoire vive, qui conduit par exemple à des hausses de tarif significatives sur la gamme des mini-PC Raspberry Pi, certains y verront peut-être un signal supplémentaire pour penser sobriété numérique, quitte à basculer d’Ubuntu vers des distributions plus légères, voire minimalistes, notamment s’il s’agit de redonner vie à une machine un peu ancienne.

En pratique, la bêta d’Ubuntu 26.04 consomme environ 1,4 Go de mémoire vive au repos, témoigne un internaute sur Reddit.

Notons que les exigences affichées sont nettement moindres pour l’édition Ubuntu Server 26.04 LTS, puisqu’elles démarrent à 1,5 Go de mémoire vive et 4 Go d’espace de stockage.

❌