Vue normale

Reçu — 7 avril 2026 Next - Articles gratuits

Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

7 avril 2026 à 14:18
CNRS, est-ce, esse
Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

Alors que son budget initial pour 2026 prévoyait déjà un déficit de 239 millions d’euros, le CNRS annonce en interne devoir procéder à un tour de vis supplémentaire de 20 millions d’euros, dont une partie sera répercutée sur la dotation aux unités de recherche. Certains projets seraient de ce fait menacés.

Un courrier du PDG du CNRS, Antoine Petit, adressé le 24 mars aux directeurs d’unité et qu’a pu consulter l’AFP, évoque un budget initial 2026 déficitaire de 239 millions d’euros « directement lié à des reprises de subventions mises en œuvre depuis 2024 ».

« La baisse des crédits n’a pas pu épargner la dotation des laboratoires », précise le courrier, qui avance que « le montant cumulé de ces charges représente plus de 500 millions d’euros depuis octobre 2024 », souligne Libé.

Une baisse à rapporter aux 2,9 milliards d’euros de dotation annuelle du principal organisme de recherche français. Il emploie 34 000 agents, dont plus de 10 000 chercheurs, soit le plus grand opérateur de l’État après France Travail, selon le rapport de la Cour des comptes de mars 2025, qui le qualifiait d’« opérateur de recherche unique en son genre, dont l’excellence est universellement reconnue et dont les comptes sont sains ».

Contacté par l’AFP, le ministère de l’Enseignement supérieur et de la Recherche évalue quant à lui à « 120 millions d’euros » le montant des charges non compensées « sur la période 2024 - 2026 ».

Une baisse de 5 % du financement du CNRS aux laboratoires

Le CNRS confirme de son côté à l’AFP que « jusqu’à présent le CNRS avait trouvé des marges de manœuvres permettant de ne pas répercuter la contrainte budgétaire sur les moyens financiers alloués aux laboratoires, mais c’est désormais malheureusement impossible ».

Matignon aurait en effet demandé au CNRS de procéder à un tour de vis supplémentaire sur son budget initial, du fait de perspectives budgétaires « particulièrement contraintes ».

« Dans ce contexte, le cabinet du Premier ministre a demandé au CNRS de présenter un budget rectificatif incluant une diminution des prévisions de dépenses de 20 M€ afin de conserver une trésorerie non fléchée de quelques dizaines de millions d’euros en fin d’exercice 2026 », écrit le PDG dans son courrier du 24 mars, reproduit par le syndicat SNCS-FSU.

Antoine Petit souligne qu’il a été fait le choix de « préserver le scénario quinquennal 2023 - 2027 des recrutements annuels par concours (270 chercheurs et 360 ingénieurs et techniciens) prévus dans le cadre de la loi de la programmation de la recherche ».

Dans une précédente déclaration, le syndicat soulignait qu’au total, « 20 millions d’euros d’économies sont imputés au fonctionnement, équipement et investissement : 13,5 millions d’euros sont pris aux laboratoires, soit une baisse de 5 % du financement du CNRS aux laboratoires, et 6,5 millions d’euros sont économisés sur des investissements en immobilier ».

« Le budget rectificatif n°1 inscrit à l’ordre du jour du CA du 13 mars nous est parvenu la veille vers 15 h » s’insurge une déclaration intersyndicale. Elle évoque un comportement « inadmissible » découlant « de choix politiques qui ne font aucun cas du CNRS et de ses personnels et [impactant] l’avenir de notre organisme », et affirme que « nos tutelles veulent imposer une austérité encore plus drastique au CNRS » :

« Le sous-financement chronique de la recherche publique française conduit au déclassement du pays par rapport à ses homologues européens et internationaux. »

« Un niveau historiquement bas depuis 1980 »

Le SNCS-FSU « dénonce avec la plus grande fermeté ce budget dangereusement déficitaire, catastrophique pour le CNRS et la recherche publique en France », à mesure que « ce budget du CNRS porte la masse salariale sur subvention d’État à 91 % de cette subvention, ce qui rend impossible toute mesure d’économie sans atteindre les activités de recherche du CNRS » : « Ce budget 2026 marque un tournant majeur avec une nouvelle étape dramatique dans les reniements des gouvernements successifs de ces vingt dernières années envers la recherche publique. »

Le syndicat avance que l’État « n’a jamais respecté l’engagement européen qu’il avait pris d’investir, dès 2010, 3 % du produit intérieur brut (PIB) pour la recherche et développement (R&D), dont 1 % du PIB pour la recherche publique ».

Il « a été insincère avec la Loi de programmation de la recherche de 2020 (LPR) » qui, plutôt que de rattraper le retard et d’atteindre 1 % du PIB pour la recherche publique, « a ramené son budget à un niveau historiquement bas depuis 1980, à savoir 0,74 % du PIB en 2023 », un pourcentage qui « sera encore plus faible cette année » :

« Alors qu’une accélération de la programmation budgétaire de la LPR est indispensable, c’est le contraire qui est programmé par le gouvernement pour la deuxième année consécutive. Ce budget devrait encore participer à l’érosion de l’emploi scientifique pérenne sur subvention d’État et donc à la chute d’attractivité du CNRS et à l’affaiblissement de notre établissement. »

« À la fin de l’année, il n’y aura plus de réserve »

« Cette année, pour la première fois, une partie des crédits de fonctionnement nous a été donnée avec l’argent des ressources propres, c’est-à-dire la réserve budgétaire », explique à l’AFP Vincent Artero, directeur du Laboratoire de Chimie et Biologie des Métaux : « On comprend qu’il n’y avait pas assez de subventions d’État pour nous donner ce qu’ils nous donnaient d’habitude. On prend sur nos réserves. Mais à la fin de l’année, il n’y aura plus de réserve. »

« Nous avons des remontées très inquiètes en particulier de nos collègues en sciences humaines et sociales », précise à l’AFP Fabrice Kordon, coprésident de l’Assemblée des directeurs de laboratoires.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère »

Au point que quelques directeurs envisagent l’arrêt de certains projets à compter d’octobre. « Les recherches les plus impactées directement sont celles qui vont être les plus dépendantes des équipements », explique à l’AFP Matthieu Refregiers, au nom du Comité des directeurs de laboratoires CNRS d’Orléans.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère. Quelqu’un passe et dit : Vous êtes sûr que vous l’avez perdue là ? Non, je l’ai perdue là-bas. Mais alors pourquoi vous cherchez ici ? Parce qu’ici, il y a de la lumière : ça, c’est la science selon nos politiques, trop sensibles aux effets de mode », ironise Fabrice Kordon.

Une situation qui, résume l’AFP, oblige les laboratoires à se concurrencer pour trouver des financements, les rapprochant du modèle anglo-saxon, et privilégiant les recherches qui sont dans l’actualité.

« Un même chercheur, deux fois plus de résultats, pour un coût perçu constant », résume une note interne consacrée à des travaux exploratoires sur l’optimisation des ressources humaines, qui précise que les implications éthiques seront examinées « dans un second temps, si nécessaire », relève la CFDT Recherche EPST.

Concrètement, les équipes de recherche vont en outre devoir rendre une partie de l’argent déjà versé pour leur année 2026, un revers « inédit », souligne Libé.

Nota bene relatif au sous-titre : l’esse est un crochet de boucherie en forme de S, destiné à suspendre les carcasses.

Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

7 avril 2026 à 12:37
J’ai ma IA en local
Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

Juste avant le week-end prolongé de Pâques, Google a lancé son nouveau modèle Gemma 4, en open source avec une licence relativement permissive : Apache 2.0. Il est proposé en quatre variantes, de 2,3 à 30,7 milliards de paramètres ; de quoi tourner sur une large gamme de terminaux.

C’est une annonce importante dans le monde des grands modèles de langage open source (y compris les poids) : Gemma 4 de Google (DeepMind). Ce n’est pas la première fois qu’un modèle open source sous licence Apache 2.0 est publié, mais c’est un mouvement intéressant de Google dans le secteur.

De 2,3 à 30,7 milliards de paramètres, avec une « mixture »

Quatre modèles Gemma 4 sont disponibles : E2B, E4B, 26B A4B et 31B. Ils proposent respectivement 2,3, 4,5 , 25,2 et 30,7 milliards de paramètres. A4B est un modèle Mixture of Experts (MoE) avec seulement 3,8 milliards de paramètres actifs pour chaque token.

Ils sont multimodaux, c’est-à-dire qu’ils « traitent les entrées de texte et d’image (l’audio est pris en charge sur les petits modèles) et génèrent des sorties de texte ».

Un MoE est un grand modèle dont seulement une partie est utilisée en inférence, réduisant les besoins en puissance de calcul. Afin de distinguer facilement les modèles, Google utilise une nomenclature spéciale au début du nom en fonction du nombre de paramètres : E pour effectifs, A pour actifs.

Les deux petits modèles de 2,3 et 4,5 milliards de paramètres ont une largeur de contexte de 128 000 jetons, contre 256 000 pour les deux autres. Gemma 4 dispose d‘un « mode de raisonnement intégré qui permet au modèle de réfléchir étape par étape avant de répondre ». La taille du dictionnaire est de 262 000 mots.

Il est capable d’analyser des images et des vidéos, propose une prise « en charge native de l’utilisation structurée des outils, permettant des workflows d’agent » et, c’est dans l’air du temps, la « génération, complétion et correction de code ». E2B et E4B disposent aussi d’une fonction de reconnaissance vocale.

Tous les détails se trouvent par ici. Google propose aussi des résultats de benchmarks maison et compare ses quatre modèles Gemma 4 à la version 27B (27 milliards de paramètres, sans raisonnement) de Gemma 3. Cette annonce intervient au moment même ou Anthropic a décidé de revoir sa gestion des comptes payants, avec le passage obligatoire via l’API pour les applications tierces.

Gemma 4 en open source passe sous licence Apache 2.0

Google propose ses modèles sous la licence Apache 2.0. Comme le rappelle Wikipédia, elle est « considérée comme permissive car elle accorde des droits étendus aux utilisateurs, tout en imposant relativement peu de restrictions […] D’autoriser la modification et la distribution du code sous toute forme (libre ou propriétaire, gratuit ou commercial) et, d’autre part, d’obliger le maintien du copyright lors de toute modification ».

Pour ses précédents modèles, Google utilisait une licence maison baptisée « Gemma Terms of Use ». Elle précise notamment « que Google se réserve le droit de restreindre l’utilisation de tout service Gemma que Google estime raisonnablement être en violation du présent accord ».

Google rejoint ainsi Mistral et son modèle 7B (septembre 2023), OpenAI avec gpt-oss-120b, ainsi que Qwen d’Alibaba, qui sont sous licence Apache 2.0. Avec ses modèles LLaM, Meta propose une « licence limitée », avec des restrictions.

Google met largement en avant le côté open source de Gemma 4 : « les modèles ouverts sont des systèmes d’IA dont les poids du modèle sont publiquement disponibles pour que n’importe qui puisse les télécharger, les étudier, les affiner et les utiliser sur son propre matériel (téléphones, ordinateurs, etc.) ». Un des avantages des modèles ouverts est en effet de pouvoir les faire tourner en local sur votre ordinateur, sans envoyer aucune donnée en ligne.

En fonction de la précision, la taille occupée en mémoire pour les modèles varie de 3,2 à près de 60 Go, laissant en effet entrevoir une large gamme d’appareils compatibles. Nous reviendrons prochainement avec quelques tutos pour installer des IA génératives en local.

☕️ Un Alsacien arrêté pour avoir évoqué le meurtre d’agents du renseignement à une IA

7 avril 2026 à 09:01


Après avoir évoqué son intention d’acheter une arme pour « tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI » au cours d’une discussion avec un outil d’intelligence artificielle, un Strasbourgeois de 37 ans s’est vu arrêté, chez lui, ce 3 avril.

Des enquêteurs du FBI, aux États-Unis, ont repéré le message et l’ont transmis à la plateforme française de signalement de contenu illicite Pharos, rapportent Les Dernières Nouvelles d’Alsace, puis le Raid est intervenu et a interpellé le suspect. Aucune arme n’a été retrouvée chez lui.

Suivi pour antécédents psychiatriques, il a en revanche été hospitalisé.

Illustration : Flock

Aux États-Unis, le recours à l’IA à des fins de surveillance de masse par les autorités fait largement débat, notamment depuis l’ultimatum imposé à Anthropic pour que l’entreprise lève les quelques restrictions d’usage de ses outils.

Comme l’entreprise a maintenu son refus de voir ses outils utilisés pour de la « surveillance intérieure de masse » (et pas pour de la surveillance extérieure) et des « armes complètement autonomes », le Pentagone s’est tourné vers son concurrent OpenAI.

Au Canada, après la tuerie de Tumbler-Ridge, OpenAI s’était retrouvé sous le feu des critiques pour ne pas avoir transmis aux autorités des informations relatives à Jesse Van Rootselaar. Si le compte de la tireuse avait été suspendu, la teneur de ses échanges avec ChatGPT n’avaient pas été relayés par l’entreprise, quand bien même ils décrivaient des scénarios de violence armée.

Les principaux modèles indiquent par ailleurs se tourner vers les forces de l’ordre en cas de nécessité. OpenAI précise par exemple dans ses spécifications de modèles recourir « à une surveillance automatisée pour détecter d’éventuelles violations de nos conditions d’utilisation » et, après examen par un humain, « saisir les autorités judiciaires dans les cas présentant une menace imminente de préjudice physique grave ou d’autres risques sérieux pour la sécurité publique ».

☕️ Dans sa lutte contre Epic, Apple se tourne de nouveau vers la Cour suprême

7 avril 2026 à 08:45


Il y a trois ans, Apple s’était tourné vers la Cour suprême (la plus haute juridiction des États-Unis) dans son différend avec Epic sur la commission de 30 % de son App Store. Quelques mois plus tard, elle bottait en touche en refusant d’intervenir, sans donner plus d’explication.

Ce n’était pas la fin de la guerre entre les deux entreprises, loin de là. Dernier événement en date, Apple a perdu en grande partie son appel contre Epic fin 2025, mais gardait tout de même la possibilité de faire payer des commissions « raisonnables » sur les paiements externes. Apple avait demandé au tribunal de revoir sa décision, mais les juges ont refusé à l’unanimité (pdf).

Comme le rapporte Engadget, Apple se tourne désormais vers la Cour suprême (pdf) pour lui demander « d’examiner quand et comment elle peut percevoir des commissions sur les achats mobiles effectués via des systèmes de paiement tiers ». L’entreprise demande aussi à la cour d’appel de suspendre sa décision, le temps que la Cour suprême se prononce.

portrait de Tim Cook façon Steve Jobs
Illustration : Flock

La 9ᵉ cour d’appel a cette fois-ci accepté la demande d’Apple et Epic voit rouge. Le père de Fortnite demande au tribunal de « réexaminer la décision d’aujourd’hui accordant la requête d’Apple pour suspendre l’exécution de la décision ».

« L’effort d’Apple pour suspendre l’exécution de la décision de cette Cour ne vise rien d’autre que gagner du temps », affirme Epic. Pour l’entreprise, cela « permet à Apple de continuer d’engranger des profits ». Dans ce climat tendu, ajoute Epic, « la plupart des développeurs réagissent à l’incertitude en s’abstenant » de proposer des alternatives.

Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

7 avril 2026 à 08:13
Phallometrics
Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

Anthropic, éditeur des modèles Claude, a annoncé dimanche un accord d’approvisionnement auprès de Google et de Broadcom destiné à renforcer ses infrastructures de calcul, principalement aux États-Unis. L’entreprise a dans le même temps affirmé avoir atteint 30 milliards de dollars de chiffre d’affaires projeté sur un an, contre 9 milliards de dollars en décembre dernier. Elle serait donc passée devant OpenAI.

Anthropic a profité du week-end de Pâques pour lâcher sa petite bombe à destination des marchés financiers et des investisseurs : au détour d’une communication relative à un nouvel accord pluriannuel avec Google et Broadcom, l’éditeur des modèles Claude a déclaré avoir atteint un volume d’activité suffisant pour pouvoir se projeter sur un chiffre d’affaires annualisé supérieur à 30 milliards de dollars.

Le montant annoncé témoigne d’une croissance aux allures d’exponentielle : Anthropic évoquait en effet une projection de chiffre d’affaires annuel de l’ordre de 9 milliards de dollars en décembre 2025. L’activité aurait donc été multipliée par plus de trois en seulement un trimestre.

« Lors de l’annonce de notre levée de fonds en série G en février, nous avions indiqué que plus de 500 entreprises clientes dépensaient chacune plus d’un million de dollars par an. Aujourd’hui, ce nombre dépasse les 1 000, soit le double en moins de deux mois », ajoute Anthropic. Annoncée le 12 février dernier, cette série G (septième tour de financement depuis l’amorçage) avait permis à l’entreprise de lever 30 milliards de dollars sur la base d’une valorisation de 380 milliards de dollars.

Un chiffre d’affaires annualisé supérieur à celui d’OpenAI ?

Si l’annonce d’Anthropic marque les esprits, c’est aussi et surtout parce que le chiffre d’affaires annuel projeté dépasse, pour la première fois, les indicateurs du grand concurrent OpenAI.

La firme dirigée par Sam Altman se montre généralement plutôt avare en matière de données financières, mais elle vient en effet elle aussi de donner une projection récente. Le 31 mars dernier, elle affirmait ainsi réaliser 2 milliards de chiffre d’affaires par mois, à l’occasion d’un point d’étape sur sa dernière levée de fonds en cours (au montant record de 122 milliards de dollars).

2 * 12, 24 milliards : le rythme actuel de chiffre d’affaires d’OpenAI révèle bien une projection inférieure aux chiffres avancés par son compétiteur.

Arithmétique floue

Dans cette bataille de chiffres superlatifs, il convient toutefois de noter que l’indicateur retenu par Anthropic est particulièrement flou. Dario Amodei et ses équipes parlent d’un run rate supérieur à 30 milliards de dollars par an. Or ce run rate est une extrapolation : on prend le chiffre d’affaires à un instant T, sur la période qui nous arrange, et on le multiplie par la constante nécessaire pour arriver à une projection sur douze mois.

Dit autrement, Anthropic pourrait avoir réalisé une particulièrement bonne journée le 5 avril, et décidé de multiplier ce chiffre d’affaires par 365 pour afficher, sans mentir, une projection annualisée très optimiste.

En face, OpenAI laisse entendre qu’il y a dans ses propres revenus une base de récurrence plus stable. « À la fin de 2024, nous générions 1 milliard de dollars par trimestre. Nous générons désormais 2 milliards de dollars de revenus par mois », écrivait l’entreprise dans son billet du 31 mars.

Du point de vue de l’utilisateur final, cette course à qui a le plus gros chiffre d’affaires n’a sans doute que peu d’intérêt, et l’on sera sans doute nettement plus sensible aux limitations que vient de mettre en place Anthropic autour des abonnements Claude pour encourager le recours aux API facturées au token.

La trajectoire du chiffre d’affaires, réelle ou projetée, intéresse en revanche vivement les investisseurs, soucieux de savoir si et quand OpenAI ou Claude pourront atteindre un volume d’activités suffisant pour compenser leurs faramineuses dépenses d’investissement. Le sujet est d’autant plus critique qu’on prête aux deux fondateurs, Dario Amodei et Sam Altman, l’intention d’introduire leur entreprise en bourse.

Anthropic renforce ses liens avec Google et Broadcom

En attendant, Anthropic revendique des liens consolidés avec les grands acteurs susceptibles de répondre à ses besoins en matière de calcul. L’entreprise indique en effet avoir signé de nouveaux accords avec Google et Broadcom, portant sur l’approvisionnement en TPU (puces dédiées à l’inférence IA) de nouvelle génération à compter de 2027. Elle ne donne aucun chiffre sur les sommes en jeu, la nature exacte de ces puces, ou l’éventuelle puissance électrique qui pourrait leur être nécessaire.

« La grande majorité des nouveaux serveurs seront situés aux États-Unis, ce qui fait de ce partenariat un élargissement majeur de notre engagement pris en novembre 2025 d’investir 50 milliards de dollars dans le renforcement de l’infrastructure informatique américaine », précise tout de même Anthropic. En octobre dernier, la société évoquait l’utilisation d’un million de TPU fournis par Google, principalement via l’offre cloud du géant de la recherche.

« Claude reste le seul modèle d’IA de pointe disponible pour les clients sur les trois plus grandes plateformes cloud du monde : Amazon Web Services (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry) », fait valoir Anthropic. Là encore, l’accent est mis sur un élément susceptible de rassurer les marchés. Dans un contexte d’incertitudes quant à la réalité des investissements promis en matière de datacenters, accentué par les conséquences de la guerre en Iran, la société fait valoir qu’elle est en mesure de s’appuyer sur les trois principaux hyperscalers du marché, quand OpenAI doit ménager les susceptibilités entre son actionnaire historique, Microsoft, et le principal participant à son dernier tour de table, Amazon.

☕️ Ventoy fête ses six ans et corrige un bug avec les distributions Linux immuables

7 avril 2026 à 07:32


C’est en effet le 5 avril 2020 que la première version de Ventoy a été mise en ligne, rapidement suivie d’une 1.0.01 pour corriger un vilain bug. Nous en parlions la même année avec la mise en ligne de la version 1.0.22. C’est pour rappel un outil permettant de créer des clés USB multi-ISO bootable, concurrent de Rufus.

La version 1.1.11 a été mise en ligne le 5 avril 2026 et signe donc le sixième anniversaire de l’application. Dans les notes de version, pas grand chose d’autre que des correctifs et autres améliorations, en plus de la prise en charge de KylinSecOS.

Un point important tout de même pour Ventoy2Disk.sh dont l’installation échouait « sur les distributions Linux immuables » : c’est désormais corrigé. Il s’agit de systèmes « où les fichiers principaux du système d’exploitation sont en lecture seule, empêchant ainsi les modifications involontaires ou malveillantes », explique Neowin. C’est le cas de Fedora Silverblue et openSUSE MicroOS, ajoutent nos confrères.

Pour télécharger Ventoy, c’est par ici.

Anthropic change ses règles du jeu, des applications tierces aux limites des sessions

7 avril 2026 à 07:02
Faire moins ou payer plus
Anthropic change ses règles du jeu, des applications tierces aux limites des sessions

Durant le week-end, Anthropic a annoncé et déployé quasiment dans la foulée un changement important de son modèle économique : les services tiers ne sont plus intégrés aux abonnements Claude, il faut passer par l’API. Cela a des conséquences importantes pour les clients, notamment ceux qui se sont lancés sur OpenClaw.

Anthropic propose une formule gratuite permettant d’accéder à son IA générative Claude, avec d’importantes restrictions d’usage. Pour débloquer les fonctionnalités supplémentaires et augmenter le temps d’utilisation, il faut passer à la caisse avec un abonnement Pro ou Max pour les particuliers, Team ou Enterprise pour les pros.

Une autre possibilité est d’utiliser l’API, avec une facturation à l’usage. Cela varie de 1 et 5 dollars par million de jetons en entrée et en production (les réponses) pour le modèle léger Haiku, à respectivement 5 et 25 dollars pour le modèle le plus performant, Opus.

Anthropic impose son API pour les applications tierces : OpenClaw en ligne de mire

Jusqu’à présent, les abonnements permettaient d’utiliser Claude dans les applications tierces, dans la limite des restrictions mises en place, évidemment. Désormais, ce n’est plus le cas.

Le changement a été annoncé samedi par Boris Cherny, responsable de Claude Code chez Anthropic, avec une mise en place prévue pour le lendemain : « Les abonnements Claude ne couvriront plus l’utilisation d’outils tiers comme OpenClaw […] La capacité est une ressource que nous gérons avec soin et nous donnons la priorité à nos clients utilisant nos produits et notre API ».

Pour faire passer la pilule et « offrir » la première dose, le responsable ajoute que les « abonnés reçoivent un crédit équivalent au coût de leur abonnement mensuel ». Les clients ont reçu pendant le week-end un email pour réclamer leur « cadeau ».

Dans le message envoyé aux abonnés, une « remarque importante » confirme la déclaration précédente, avec une mise en place le jour même : « À compter du 4 avril, les outils tiers comme OpenClaw connectés à votre compte Claude seront facturés comme une consommation supplémentaire et non plus via votre abonnement ».

OpenClaw est directement cité dans la communication d’Anthropic. Il s’agit, pour rappel, d’un agent IA qui a défrayé la chronique au début de l’année. Son créateur, Peter Steinberger, a rejoint OpenAI mi-février, « pour piloter la prochaine génération d’agents personnels ».

Il s’est exprimé sur X suite à ce changement de politique qu’il trouve « triste pour l’écosystème ». Il annonce au passage que la dernière version d’OpenClaw inclut des « correctifs pour une meilleure utilisation du cache, afin de réduire les coûts pour les utilisateurs de l’API ».

« Demande croissante sur Claude » : Anthropic modifie ses conditions d’usage

Ce n’est pas le seul changement de ces dernières semaines : « Pour répondre à la demande croissante sur Claude, nous ajustons nos limites des sessions de 5 h pour les abonnements gratuits, Pro et Max pendant les heures de pointe. Vos limites hebdomadaires restent inchangées. En semaine entre 5 h et 11 h PT, ainsi qu’entre 13 h et 19 h GMT, vous épuisez vos limites de session de 5 heures plus rapidement qu’auparavant », explique un responsable de Claude Code sur X.

« Nous avons réalisé de nombreux gains d’efficacité pour compenser cela, mais environ 7 % des utilisateurs atteindront des limites de session qu’ils n’auraient pas atteintes auparavant, en particulier pour les niveaux pro. Si vous exécutez des tâches en arrière-plan gourmandes en tokens, les décaler aux heures creuses étendra davantage vos limites de session », explique-t-il. La grogne des clients s’est rapidement faite entendre dans les réponses à cette publication.

Comme le rapporte Le Figaro, une publication Reddit a mis le feu aux poudre le mois dernier. Un internaute affirme avoir trouvé des bugs dans la mémoire cache de l’IA qui « multiplient par 10 à 20 vos consommations ».

Anthropic a annoncé enquêter et, le 2 avril, Lydia Hallie (développeuse Claude Code) a pris la parole sur X : « Les limites en heure de pointe sont plus strictes […] c’est en grande partie ce que vous ressentez. Nous avons corrigé quelques bugs en cours de route, mais aucun ne vous facturait excessivement ».

Elle donne quelques conseils. Elle propose d’utiliser Sonnet 4.6, qui est « le choix par défaut le plus performant sur Pro. Opus consomme [les tokens] environ deux fois plus vite ». Elle recommande aussi de « commencer une nouvelle session plutôt que de reprendre de grandes sessions qui ont été inactives ~1 h », et enfin de limiter votre fenêtre de contexte. Là encore, les clients font part de leur mécontentement en guise de réponse.

C’est aussi un moyen pour Anthropic de pousser ses clients sur une offre plus chère s’ils veulent continuer d’utiliser Claude plus ou moins comme avant. Pour rappel, la formule Pro est à 15 euros par mois, mais le palier du dessus est à 90 euros minimum par mois pour Max. Il y a également l’API avec un paiement à l’usage.

Fuite de Claude Code et de Mythos

Ces derniers jours, Anthropic était au cœur des gros titres de la presse, pour deux raisons. La première concerne la fuite d’une partie du code de Claude Code justement. Si le modèle en lui-même n’est pas publié (le cerveau de Claude Code), le squelette, ses muscles et articulations sont désormais accessibles à tout le monde.

Peu de temps avant, plus de 3 000 documents avaient « fuité » avec un nouveau modèle baptisé Mythos. Il se place au-dessus d’Opus, le modèle actuellement le plus performant d’Anthropic… et donc plus couteux à faire tourner.

❌