Vue normale

Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

7 avril 2026 à 14:18
CNRS, est-ce, esse
Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

Alors que son budget initial pour 2026 prévoyait déjà un déficit de 239 millions d’euros, le CNRS annonce en interne devoir procéder à un tour de vis supplémentaire de 20 millions d’euros, dont une partie sera répercutée sur la dotation aux unités de recherche. Certains projets seraient de ce fait menacés.

Un courrier du PDG du CNRS, Antoine Petit, adressé le 24 mars aux directeurs d’unité et qu’a pu consulter l’AFP, évoque un budget initial 2026 déficitaire de 239 millions d’euros « directement lié à des reprises de subventions mises en œuvre depuis 2024 ».

« La baisse des crédits n’a pas pu épargner la dotation des laboratoires », précise le courrier, qui avance que « le montant cumulé de ces charges représente plus de 500 millions d’euros depuis octobre 2024 », souligne Libé.

Une baisse à rapporter aux 2,9 milliards d’euros de dotation annuelle du principal organisme de recherche français. Il emploie 34 000 agents, dont plus de 10 000 chercheurs, soit le plus grand opérateur de l’État après France Travail, selon le rapport de la Cour des comptes de mars 2025, qui le qualifiait d’« opérateur de recherche unique en son genre, dont l’excellence est universellement reconnue et dont les comptes sont sains ».

Contacté par l’AFP, le ministère de l’Enseignement supérieur et de la Recherche évalue quant à lui à « 120 millions d’euros » le montant des charges non compensées « sur la période 2024 - 2026 ».

Une baisse de 5 % du financement du CNRS aux laboratoires

Le CNRS confirme de son côté à l’AFP que « jusqu’à présent le CNRS avait trouvé des marges de manœuvres permettant de ne pas répercuter la contrainte budgétaire sur les moyens financiers alloués aux laboratoires, mais c’est désormais malheureusement impossible ».

Matignon aurait en effet demandé au CNRS de procéder à un tour de vis supplémentaire sur son budget initial, du fait de perspectives budgétaires « particulièrement contraintes ».

« Dans ce contexte, le cabinet du Premier ministre a demandé au CNRS de présenter un budget rectificatif incluant une diminution des prévisions de dépenses de 20 M€ afin de conserver une trésorerie non fléchée de quelques dizaines de millions d’euros en fin d’exercice 2026 », écrit le PDG dans son courrier du 24 mars, reproduit par le syndicat SNCS-FSU.

Antoine Petit souligne qu’il a été fait le choix de « préserver le scénario quinquennal 2023 - 2027 des recrutements annuels par concours (270 chercheurs et 360 ingénieurs et techniciens) prévus dans le cadre de la loi de la programmation de la recherche ».

Dans une précédente déclaration, le syndicat soulignait qu’au total, « 20 millions d’euros d’économies sont imputés au fonctionnement, équipement et investissement : 13,5 millions d’euros sont pris aux laboratoires, soit une baisse de 5 % du financement du CNRS aux laboratoires, et 6,5 millions d’euros sont économisés sur des investissements en immobilier ».

« Le budget rectificatif n°1 inscrit à l’ordre du jour du CA du 13 mars nous est parvenu la veille vers 15 h » s’insurge une déclaration intersyndicale. Elle évoque un comportement « inadmissible » découlant « de choix politiques qui ne font aucun cas du CNRS et de ses personnels et [impactant] l’avenir de notre organisme », et affirme que « nos tutelles veulent imposer une austérité encore plus drastique au CNRS » :

« Le sous-financement chronique de la recherche publique française conduit au déclassement du pays par rapport à ses homologues européens et internationaux. »

« Un niveau historiquement bas depuis 1980 »

Le SNCS-FSU « dénonce avec la plus grande fermeté ce budget dangereusement déficitaire, catastrophique pour le CNRS et la recherche publique en France », à mesure que « ce budget du CNRS porte la masse salariale sur subvention d’État à 91 % de cette subvention, ce qui rend impossible toute mesure d’économie sans atteindre les activités de recherche du CNRS » : « Ce budget 2026 marque un tournant majeur avec une nouvelle étape dramatique dans les reniements des gouvernements successifs de ces vingt dernières années envers la recherche publique. »

Le syndicat avance que l’État « n’a jamais respecté l’engagement européen qu’il avait pris d’investir, dès 2010, 3 % du produit intérieur brut (PIB) pour la recherche et développement (R&D), dont 1 % du PIB pour la recherche publique ».

Il « a été insincère avec la Loi de programmation de la recherche de 2020 (LPR) » qui, plutôt que de rattraper le retard et d’atteindre 1 % du PIB pour la recherche publique, « a ramené son budget à un niveau historiquement bas depuis 1980, à savoir 0,74 % du PIB en 2023 », un pourcentage qui « sera encore plus faible cette année » :

« Alors qu’une accélération de la programmation budgétaire de la LPR est indispensable, c’est le contraire qui est programmé par le gouvernement pour la deuxième année consécutive. Ce budget devrait encore participer à l’érosion de l’emploi scientifique pérenne sur subvention d’État et donc à la chute d’attractivité du CNRS et à l’affaiblissement de notre établissement. »

« À la fin de l’année, il n’y aura plus de réserve »

« Cette année, pour la première fois, une partie des crédits de fonctionnement nous a été donnée avec l’argent des ressources propres, c’est-à-dire la réserve budgétaire », explique à l’AFP Vincent Artero, directeur du Laboratoire de Chimie et Biologie des Métaux : « On comprend qu’il n’y avait pas assez de subventions d’État pour nous donner ce qu’ils nous donnaient d’habitude. On prend sur nos réserves. Mais à la fin de l’année, il n’y aura plus de réserve. »

« Nous avons des remontées très inquiètes en particulier de nos collègues en sciences humaines et sociales », précise à l’AFP Fabrice Kordon, coprésident de l’Assemblée des directeurs de laboratoires.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère »

Au point que quelques directeurs envisagent l’arrêt de certains projets à compter d’octobre. « Les recherches les plus impactées directement sont celles qui vont être les plus dépendantes des équipements », explique à l’AFP Matthieu Refregiers, au nom du Comité des directeurs de laboratoires CNRS d’Orléans.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère. Quelqu’un passe et dit : Vous êtes sûr que vous l’avez perdue là ? Non, je l’ai perdue là-bas. Mais alors pourquoi vous cherchez ici ? Parce qu’ici, il y a de la lumière : ça, c’est la science selon nos politiques, trop sensibles aux effets de mode », ironise Fabrice Kordon.

Une situation qui, résume l’AFP, oblige les laboratoires à se concurrencer pour trouver des financements, les rapprochant du modèle anglo-saxon, et privilégiant les recherches qui sont dans l’actualité.

« Un même chercheur, deux fois plus de résultats, pour un coût perçu constant », résume une note interne consacrée à des travaux exploratoires sur l’optimisation des ressources humaines, qui précise que les implications éthiques seront examinées « dans un second temps, si nécessaire », relève la CFDT Recherche EPST.

Concrètement, les équipes de recherche vont en outre devoir rendre une partie de l’argent déjà versé pour leur année 2026, un revers « inédit », souligne Libé.

Nota bene relatif au sous-titre : l’esse est un crochet de boucherie en forme de S, destiné à suspendre les carcasses.

Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

7 avril 2026 à 12:37
J’ai ma IA en local
Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

Juste avant le week-end prolongé de Pâques, Google a lancé son nouveau modèle Gemma 4, en open source avec une licence relativement permissive : Apache 2.0. Il est proposé en quatre variantes, de 2,3 à 30,7 milliards de paramètres ; de quoi tourner sur une large gamme de terminaux.

C’est une annonce importante dans le monde des grands modèles de langage open source (y compris les poids) : Gemma 4 de Google (DeepMind). Ce n’est pas la première fois qu’un modèle open source sous licence Apache 2.0 est publié, mais c’est un mouvement intéressant de Google dans le secteur.

De 2,3 à 30,7 milliards de paramètres, avec une « mixture »

Quatre modèles Gemma 4 sont disponibles : E2B, E4B, 26B A4B et 31B. Ils proposent respectivement 2,3, 4,5 , 25,2 et 30,7 milliards de paramètres. A4B est un modèle Mixture of Experts (MoE) avec seulement 3,8 milliards de paramètres actifs pour chaque token.

Ils sont multimodaux, c’est-à-dire qu’ils « traitent les entrées de texte et d’image (l’audio est pris en charge sur les petits modèles) et génèrent des sorties de texte ».

Un MoE est un grand modèle dont seulement une partie est utilisée en inférence, réduisant les besoins en puissance de calcul. Afin de distinguer facilement les modèles, Google utilise une nomenclature spéciale au début du nom en fonction du nombre de paramètres : E pour effectifs, A pour actifs.

Les deux petits modèles de 2,3 et 4,5 milliards de paramètres ont une largeur de contexte de 128 000 jetons, contre 256 000 pour les deux autres. Gemma 4 dispose d‘un « mode de raisonnement intégré qui permet au modèle de réfléchir étape par étape avant de répondre ». La taille du dictionnaire est de 262 000 mots.

Il est capable d’analyser des images et des vidéos, propose une prise « en charge native de l’utilisation structurée des outils, permettant des workflows d’agent » et, c’est dans l’air du temps, la « génération, complétion et correction de code ». E2B et E4B disposent aussi d’une fonction de reconnaissance vocale.

Tous les détails se trouvent par ici. Google propose aussi des résultats de benchmarks maison et compare ses quatre modèles Gemma 4 à la version 27B (27 milliards de paramètres, sans raisonnement) de Gemma 3. Cette annonce intervient au moment même ou Anthropic a décidé de revoir sa gestion des comptes payants, avec le passage obligatoire via l’API pour les applications tierces.

Gemma 4 en open source passe sous licence Apache 2.0

Google propose ses modèles sous la licence Apache 2.0. Comme le rappelle Wikipédia, elle est « considérée comme permissive car elle accorde des droits étendus aux utilisateurs, tout en imposant relativement peu de restrictions […] D’autoriser la modification et la distribution du code sous toute forme (libre ou propriétaire, gratuit ou commercial) et, d’autre part, d’obliger le maintien du copyright lors de toute modification ».

Pour ses précédents modèles, Google utilisait une licence maison baptisée « Gemma Terms of Use ». Elle précise notamment « que Google se réserve le droit de restreindre l’utilisation de tout service Gemma que Google estime raisonnablement être en violation du présent accord ».

Google rejoint ainsi Mistral et son modèle 7B (septembre 2023), OpenAI avec gpt-oss-120b, ainsi que Qwen d’Alibaba, qui sont sous licence Apache 2.0. Avec ses modèles LLaM, Meta propose une « licence limitée », avec des restrictions.

Google met largement en avant le côté open source de Gemma 4 : « les modèles ouverts sont des systèmes d’IA dont les poids du modèle sont publiquement disponibles pour que n’importe qui puisse les télécharger, les étudier, les affiner et les utiliser sur son propre matériel (téléphones, ordinateurs, etc.) ». Un des avantages des modèles ouverts est en effet de pouvoir les faire tourner en local sur votre ordinateur, sans envoyer aucune donnée en ligne.

En fonction de la précision, la taille occupée en mémoire pour les modèles varie de 3,2 à près de 60 Go, laissant en effet entrevoir une large gamme d’appareils compatibles. Nous reviendrons prochainement avec quelques tutos pour installer des IA génératives en local.

☕️ Un Alsacien arrêté pour avoir évoqué le meurtre d’agents du renseignement à une IA

7 avril 2026 à 09:01


Après avoir évoqué son intention d’acheter une arme pour « tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI » au cours d’une discussion avec un outil d’intelligence artificielle, un Strasbourgeois de 37 ans s’est vu arrêté, chez lui, ce 3 avril.

Des enquêteurs du FBI, aux États-Unis, ont repéré le message et l’ont transmis à la plateforme française de signalement de contenu illicite Pharos, rapportent Les Dernières Nouvelles d’Alsace, puis le Raid est intervenu et a interpellé le suspect. Aucune arme n’a été retrouvée chez lui.

Suivi pour antécédents psychiatriques, il a en revanche été hospitalisé.

Illustration : Flock

Aux États-Unis, le recours à l’IA à des fins de surveillance de masse par les autorités fait largement débat, notamment depuis l’ultimatum imposé à Anthropic pour que l’entreprise lève les quelques restrictions d’usage de ses outils.

Comme l’entreprise a maintenu son refus de voir ses outils utilisés pour de la « surveillance intérieure de masse » (et pas pour de la surveillance extérieure) et des « armes complètement autonomes », le Pentagone s’est tourné vers son concurrent OpenAI.

Au Canada, après la tuerie de Tumbler-Ridge, OpenAI s’était retrouvé sous le feu des critiques pour ne pas avoir transmis aux autorités des informations relatives à Jesse Van Rootselaar. Si le compte de la tireuse avait été suspendu, la teneur de ses échanges avec ChatGPT n’avaient pas été relayés par l’entreprise, quand bien même ils décrivaient des scénarios de violence armée.

Les principaux modèles indiquent par ailleurs se tourner vers les forces de l’ordre en cas de nécessité. OpenAI précise par exemple dans ses spécifications de modèles recourir « à une surveillance automatisée pour détecter d’éventuelles violations de nos conditions d’utilisation » et, après examen par un humain, « saisir les autorités judiciaires dans les cas présentant une menace imminente de préjudice physique grave ou d’autres risques sérieux pour la sécurité publique ».

☕️ Dans sa lutte contre Epic, Apple se tourne de nouveau vers la Cour suprême

7 avril 2026 à 08:45


Il y a trois ans, Apple s’était tourné vers la Cour suprême (la plus haute juridiction des États-Unis) dans son différend avec Epic sur la commission de 30 % de son App Store. Quelques mois plus tard, elle bottait en touche en refusant d’intervenir, sans donner plus d’explication.

Ce n’était pas la fin de la guerre entre les deux entreprises, loin de là. Dernier événement en date, Apple a perdu en grande partie son appel contre Epic fin 2025, mais gardait tout de même la possibilité de faire payer des commissions « raisonnables » sur les paiements externes. Apple avait demandé au tribunal de revoir sa décision, mais les juges ont refusé à l’unanimité (pdf).

Comme le rapporte Engadget, Apple se tourne désormais vers la Cour suprême (pdf) pour lui demander « d’examiner quand et comment elle peut percevoir des commissions sur les achats mobiles effectués via des systèmes de paiement tiers ». L’entreprise demande aussi à la cour d’appel de suspendre sa décision, le temps que la Cour suprême se prononce.

portrait de Tim Cook façon Steve Jobs
Illustration : Flock

La 9ᵉ cour d’appel a cette fois-ci accepté la demande d’Apple et Epic voit rouge. Le père de Fortnite demande au tribunal de « réexaminer la décision d’aujourd’hui accordant la requête d’Apple pour suspendre l’exécution de la décision ».

« L’effort d’Apple pour suspendre l’exécution de la décision de cette Cour ne vise rien d’autre que gagner du temps », affirme Epic. Pour l’entreprise, cela « permet à Apple de continuer d’engranger des profits ». Dans ce climat tendu, ajoute Epic, « la plupart des développeurs réagissent à l’incertitude en s’abstenant » de proposer des alternatives.

Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

7 avril 2026 à 08:13
Phallometrics
Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

Anthropic, éditeur des modèles Claude, a annoncé dimanche un accord d’approvisionnement auprès de Google et de Broadcom destiné à renforcer ses infrastructures de calcul, principalement aux États-Unis. L’entreprise a dans le même temps affirmé avoir atteint 30 milliards de dollars de chiffre d’affaires projeté sur un an, contre 9 milliards de dollars en décembre dernier. Elle serait donc passée devant OpenAI.

Anthropic a profité du week-end de Pâques pour lâcher sa petite bombe à destination des marchés financiers et des investisseurs : au détour d’une communication relative à un nouvel accord pluriannuel avec Google et Broadcom, l’éditeur des modèles Claude a déclaré avoir atteint un volume d’activité suffisant pour pouvoir se projeter sur un chiffre d’affaires annualisé supérieur à 30 milliards de dollars.

Le montant annoncé témoigne d’une croissance aux allures d’exponentielle : Anthropic évoquait en effet une projection de chiffre d’affaires annuel de l’ordre de 9 milliards de dollars en décembre 2025. L’activité aurait donc été multipliée par plus de trois en seulement un trimestre.

« Lors de l’annonce de notre levée de fonds en série G en février, nous avions indiqué que plus de 500 entreprises clientes dépensaient chacune plus d’un million de dollars par an. Aujourd’hui, ce nombre dépasse les 1 000, soit le double en moins de deux mois », ajoute Anthropic. Annoncée le 12 février dernier, cette série G (septième tour de financement depuis l’amorçage) avait permis à l’entreprise de lever 30 milliards de dollars sur la base d’une valorisation de 380 milliards de dollars.

Un chiffre d’affaires annualisé supérieur à celui d’OpenAI ?

Si l’annonce d’Anthropic marque les esprits, c’est aussi et surtout parce que le chiffre d’affaires annuel projeté dépasse, pour la première fois, les indicateurs du grand concurrent OpenAI.

La firme dirigée par Sam Altman se montre généralement plutôt avare en matière de données financières, mais elle vient en effet elle aussi de donner une projection récente. Le 31 mars dernier, elle affirmait ainsi réaliser 2 milliards de chiffre d’affaires par mois, à l’occasion d’un point d’étape sur sa dernière levée de fonds en cours (au montant record de 122 milliards de dollars).

2 * 12, 24 milliards : le rythme actuel de chiffre d’affaires d’OpenAI révèle bien une projection inférieure aux chiffres avancés par son compétiteur.

Arithmétique floue

Dans cette bataille de chiffres superlatifs, il convient toutefois de noter que l’indicateur retenu par Anthropic est particulièrement flou. Dario Amodei et ses équipes parlent d’un run rate supérieur à 30 milliards de dollars par an. Or ce run rate est une extrapolation : on prend le chiffre d’affaires à un instant T, sur la période qui nous arrange, et on le multiplie par la constante nécessaire pour arriver à une projection sur douze mois.

Dit autrement, Anthropic pourrait avoir réalisé une particulièrement bonne journée le 5 avril, et décidé de multiplier ce chiffre d’affaires par 365 pour afficher, sans mentir, une projection annualisée très optimiste.

En face, OpenAI laisse entendre qu’il y a dans ses propres revenus une base de récurrence plus stable. « À la fin de 2024, nous générions 1 milliard de dollars par trimestre. Nous générons désormais 2 milliards de dollars de revenus par mois », écrivait l’entreprise dans son billet du 31 mars.

Du point de vue de l’utilisateur final, cette course à qui a le plus gros chiffre d’affaires n’a sans doute que peu d’intérêt, et l’on sera sans doute nettement plus sensible aux limitations que vient de mettre en place Anthropic autour des abonnements Claude pour encourager le recours aux API facturées au token.

La trajectoire du chiffre d’affaires, réelle ou projetée, intéresse en revanche vivement les investisseurs, soucieux de savoir si et quand OpenAI ou Claude pourront atteindre un volume d’activités suffisant pour compenser leurs faramineuses dépenses d’investissement. Le sujet est d’autant plus critique qu’on prête aux deux fondateurs, Dario Amodei et Sam Altman, l’intention d’introduire leur entreprise en bourse.

Anthropic renforce ses liens avec Google et Broadcom

En attendant, Anthropic revendique des liens consolidés avec les grands acteurs susceptibles de répondre à ses besoins en matière de calcul. L’entreprise indique en effet avoir signé de nouveaux accords avec Google et Broadcom, portant sur l’approvisionnement en TPU (puces dédiées à l’inférence IA) de nouvelle génération à compter de 2027. Elle ne donne aucun chiffre sur les sommes en jeu, la nature exacte de ces puces, ou l’éventuelle puissance électrique qui pourrait leur être nécessaire.

« La grande majorité des nouveaux serveurs seront situés aux États-Unis, ce qui fait de ce partenariat un élargissement majeur de notre engagement pris en novembre 2025 d’investir 50 milliards de dollars dans le renforcement de l’infrastructure informatique américaine », précise tout de même Anthropic. En octobre dernier, la société évoquait l’utilisation d’un million de TPU fournis par Google, principalement via l’offre cloud du géant de la recherche.

« Claude reste le seul modèle d’IA de pointe disponible pour les clients sur les trois plus grandes plateformes cloud du monde : Amazon Web Services (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry) », fait valoir Anthropic. Là encore, l’accent est mis sur un élément susceptible de rassurer les marchés. Dans un contexte d’incertitudes quant à la réalité des investissements promis en matière de datacenters, accentué par les conséquences de la guerre en Iran, la société fait valoir qu’elle est en mesure de s’appuyer sur les trois principaux hyperscalers du marché, quand OpenAI doit ménager les susceptibilités entre son actionnaire historique, Microsoft, et le principal participant à son dernier tour de table, Amazon.

☕️ Ventoy fête ses six ans et corrige un bug avec les distributions Linux immuables

7 avril 2026 à 07:32


C’est en effet le 5 avril 2020 que la première version de Ventoy a été mise en ligne, rapidement suivie d’une 1.0.01 pour corriger un vilain bug. Nous en parlions la même année avec la mise en ligne de la version 1.0.22. C’est pour rappel un outil permettant de créer des clés USB multi-ISO bootable, concurrent de Rufus.

La version 1.1.11 a été mise en ligne le 5 avril 2026 et signe donc le sixième anniversaire de l’application. Dans les notes de version, pas grand chose d’autre que des correctifs et autres améliorations, en plus de la prise en charge de KylinSecOS.

Un point important tout de même pour Ventoy2Disk.sh dont l’installation échouait « sur les distributions Linux immuables » : c’est désormais corrigé. Il s’agit de systèmes « où les fichiers principaux du système d’exploitation sont en lecture seule, empêchant ainsi les modifications involontaires ou malveillantes », explique Neowin. C’est le cas de Fedora Silverblue et openSUSE MicroOS, ajoutent nos confrères.

Pour télécharger Ventoy, c’est par ici.

Anthropic change ses règles du jeu, des applications tierces aux limites des sessions

7 avril 2026 à 07:02
Faire moins ou payer plus
Anthropic change ses règles du jeu, des applications tierces aux limites des sessions

Durant le week-end, Anthropic a annoncé et déployé quasiment dans la foulée un changement important de son modèle économique : les services tiers ne sont plus intégrés aux abonnements Claude, il faut passer par l’API. Cela a des conséquences importantes pour les clients, notamment ceux qui se sont lancés sur OpenClaw.

Anthropic propose une formule gratuite permettant d’accéder à son IA générative Claude, avec d’importantes restrictions d’usage. Pour débloquer les fonctionnalités supplémentaires et augmenter le temps d’utilisation, il faut passer à la caisse avec un abonnement Pro ou Max pour les particuliers, Team ou Enterprise pour les pros.

Une autre possibilité est d’utiliser l’API, avec une facturation à l’usage. Cela varie de 1 et 5 dollars par million de jetons en entrée et en production (les réponses) pour le modèle léger Haiku, à respectivement 5 et 25 dollars pour le modèle le plus performant, Opus.

Anthropic impose son API pour les applications tierces : OpenClaw en ligne de mire

Jusqu’à présent, les abonnements permettaient d’utiliser Claude dans les applications tierces, dans la limite des restrictions mises en place, évidemment. Désormais, ce n’est plus le cas.

Le changement a été annoncé samedi par Boris Cherny, responsable de Claude Code chez Anthropic, avec une mise en place prévue pour le lendemain : « Les abonnements Claude ne couvriront plus l’utilisation d’outils tiers comme OpenClaw […] La capacité est une ressource que nous gérons avec soin et nous donnons la priorité à nos clients utilisant nos produits et notre API ».

Pour faire passer la pilule et « offrir » la première dose, le responsable ajoute que les « abonnés reçoivent un crédit équivalent au coût de leur abonnement mensuel ». Les clients ont reçu pendant le week-end un email pour réclamer leur « cadeau ».

Dans le message envoyé aux abonnés, une « remarque importante » confirme la déclaration précédente, avec une mise en place le jour même : « À compter du 4 avril, les outils tiers comme OpenClaw connectés à votre compte Claude seront facturés comme une consommation supplémentaire et non plus via votre abonnement ».

OpenClaw est directement cité dans la communication d’Anthropic. Il s’agit, pour rappel, d’un agent IA qui a défrayé la chronique au début de l’année. Son créateur, Peter Steinberger, a rejoint OpenAI mi-février, « pour piloter la prochaine génération d’agents personnels ».

Il s’est exprimé sur X suite à ce changement de politique qu’il trouve « triste pour l’écosystème ». Il annonce au passage que la dernière version d’OpenClaw inclut des « correctifs pour une meilleure utilisation du cache, afin de réduire les coûts pour les utilisateurs de l’API ».

« Demande croissante sur Claude » : Anthropic modifie ses conditions d’usage

Ce n’est pas le seul changement de ces dernières semaines : « Pour répondre à la demande croissante sur Claude, nous ajustons nos limites des sessions de 5 h pour les abonnements gratuits, Pro et Max pendant les heures de pointe. Vos limites hebdomadaires restent inchangées. En semaine entre 5 h et 11 h PT, ainsi qu’entre 13 h et 19 h GMT, vous épuisez vos limites de session de 5 heures plus rapidement qu’auparavant », explique un responsable de Claude Code sur X.

« Nous avons réalisé de nombreux gains d’efficacité pour compenser cela, mais environ 7 % des utilisateurs atteindront des limites de session qu’ils n’auraient pas atteintes auparavant, en particulier pour les niveaux pro. Si vous exécutez des tâches en arrière-plan gourmandes en tokens, les décaler aux heures creuses étendra davantage vos limites de session », explique-t-il. La grogne des clients s’est rapidement faite entendre dans les réponses à cette publication.

Comme le rapporte Le Figaro, une publication Reddit a mis le feu aux poudre le mois dernier. Un internaute affirme avoir trouvé des bugs dans la mémoire cache de l’IA qui « multiplient par 10 à 20 vos consommations ».

Anthropic a annoncé enquêter et, le 2 avril, Lydia Hallie (développeuse Claude Code) a pris la parole sur X : « Les limites en heure de pointe sont plus strictes […] c’est en grande partie ce que vous ressentez. Nous avons corrigé quelques bugs en cours de route, mais aucun ne vous facturait excessivement ».

Elle donne quelques conseils. Elle propose d’utiliser Sonnet 4.6, qui est « le choix par défaut le plus performant sur Pro. Opus consomme [les tokens] environ deux fois plus vite ». Elle recommande aussi de « commencer une nouvelle session plutôt que de reprendre de grandes sessions qui ont été inactives ~1 h », et enfin de limiter votre fenêtre de contexte. Là encore, les clients font part de leur mécontentement en guise de réponse.

C’est aussi un moyen pour Anthropic de pousser ses clients sur une offre plus chère s’ils veulent continuer d’utiliser Claude plus ou moins comme avant. Pour rappel, la formule Pro est à 15 euros par mois, mais le palier du dessus est à 90 euros minimum par mois pour Max. Il y a également l’API avec un paiement à l’usage.

Fuite de Claude Code et de Mythos

Ces derniers jours, Anthropic était au cœur des gros titres de la presse, pour deux raisons. La première concerne la fuite d’une partie du code de Claude Code justement. Si le modèle en lui-même n’est pas publié (le cerveau de Claude Code), le squelette, ses muscles et articulations sont désormais accessibles à tout le monde.

Peu de temps avant, plus de 3 000 documents avaient « fuité » avec un nouveau modèle baptisé Mythos. Il se place au-dessus d’Opus, le modèle actuellement le plus performant d’Anthropic… et donc plus couteux à faire tourner.

#Flock : Ils sont parmi nous

Par : Flock
4 avril 2026 à 11:37
I don’t want to live on this planet anymore
#Flock : Ils sont parmi nous

En mars, le nom de domaine aliens.gov est enregistré par l’administration américaine. JD Vance dit vouloir se pencher sur la question. La lune est de nouveau pointée du doigt. Je ne dis pas qu’il y a un alignement des planètes, mais je pense qu’on ne nous dit pas tout : pas besoin ceci dit, puisque ça crève les yeux…

Ma rubrique se fera enlever par des aliens la semaine prochaine, mais elle devrait voyager paranormalement jusqu’à la suivante. Gros doigt lumineux bienveillant sur vous, à très vite !


Il reste 75% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Au CNRS, un chiffrement « inviolable » à base d’ADN

3 avril 2026 à 14:08
aHR0cHM6Ly93d3cueW91dHViZS 5jb20vd2F0Y2g/dj1kUXc0dzlXZ1hjUQ==
Au CNRS, un chiffrement « inviolable » à base d’ADN

L’ADN peut générer de longues chaines de données aléatoires, ce qui est parfait pour créer de grands masques jetables pour chiffrer des données, avec une protection « inviolable ». Le CNRS présente ses travaux, qui mélangent ADN et chiffre de Vernam.

Dans un précédent article, nous étions revenus sur les méthodes de chiffrement en informatique des dernières décennies. Nous avons également analysé la menace quantique ainsi que le chiffrement hybride qui mélange les deux mondes. Au milieu de tout cela, il existe depuis plus de 100 ans un algorithme de chiffrement inviolable : le masque jetable ou chiffre de Vernam.

Juste des permutations… mais sur chaque caractère

Le principe de base est simple : il s’agit ni plus ni moins d’une permutation de l’alphabet, mais avec une clé aussi longue que le message à chiffrer. Il faut par contre respecter une condition : la clé (ou masque) ne doit être utilisé qu’une seule fois et elle doit être totalement aléatoire (et ce n’est pas si facile de faire du 100 % aléatoire).

Avec une clé de la taille du message et une rotation aléatoire de l’alphabet à chaque lettre, un message de 10 caractères pourrait être transformé en n’importe quel mot (ou groupe de mots) de 10 caractères, sans savoir lequel est le bon.

Imaginez avec un message chiffré plus court, par exemple ABC, il pourrait aussi bien s’agir de OUI, que NON, DIX, TES, ZUT… sans pouvoir trouver le message en clair si vous n’avez pas la bonne clé. On parle de sécurité inconditionnelle, « c’est-à-dire indépendante de la puissance de calcul d’un adversaire », et on peut le prouver dans le cas présent.

Avec l’ADN, de très grandes clés aléatoires

Le problème du chiffre de Vernam est double : d’abord, générer des clés de très grandes tailles et aléatoires, puis échanger physiquement les clés. Dans le premier cas, le CNRS propose une solution : l’ADN : « Chaque molécule d’ADN est composée de quatre bases chimiques (A, T, C et G), et les chimistes sont capables de synthétiser commercialement de longues chaines dont l’ordre des bases est statistiquement aléatoire. Ces séquences d’ADN peuvent ensuite être copiées à l’identique, à l’aide de processus enzymatiques, et ainsi partagées entre un expéditeur et un destinataire ».

L’ADN coche toutes les cases avec une densité de stockage et une stabilité remarquables  : « correctement conservé, le polymère peut rester intact pendant des milliers d’années et il suffit de quelques milligrammes pour stocker des exaoctets d‘information binaire, soit l’équivalent d’un million de disques durs ». Stocker autant de données dans aussi peu de place avec un autre système c’est actuellement… compliqué.

Des candidats parfaits pour les masques, mais il faut toujours les échanger sans la moindre interception, sinon toute la sécurité s’effondre si une tierce partie récupère une copie des clés. L’avantage de l’ADN c’est qu’il ne prend pas beaucoup de place et qu’il est facile à transporter.

Pour le CNRS, les principales perspectives se trouvent dans « la protection des communications les plus sensibles, qu’il s’agisse d’échanges diplomatiques, militaires ou scientifiques ». Dans un second temps, cette technique « pourrait également trouver des applications dans des contextes extrêmes, notamment les communications spatiales ou les infrastructures numériques critiques où la fiabilité et l’inviolabilité des échanges constituent des enjeux majeurs ».

Ubisoft assigné en justice pour la fermeture des serveurs de The Crew

3 avril 2026 à 13:03
Video (games) killed the radio star
Ubisoft assigné en justice pour la fermeture des serveurs de The Crew

Dans le sillage de l’initiative européenne Stop Killing Games, l’UFC-Que Choisir a lancé des poursuites en justice à l’encontre d’Ubisoft. L’association de consommateurs reproche à l’éditeur français d’avoir fermé les serveurs qui permettaient au jeu The Crew de fonctionner, privant de ce fait les consommateurs de l’usage d’un jeu qu’ils avaient pourtant acheté sans date de fin de vie programmée.

La boucle est bouclée. C’est la fermeture programmée des serveurs du jeu de course The Crew qui a motivé l’émergence de l’initiative européenne Stop Killing Games, en 2024, et c’est quelques semaines après la reconnaissance formelle de cette initiative citoyenne par la Commission européenne qu’une procédure en justice à l’encontre d’Ubisoft voit le jour.

Ubisoft poursuivi pour la fermeture des serveurs de The Crew

En France, c’est l’UFC-Que Choisir qui initie ces poursuites devant le tribunal judiciaire de Créteil. « L’UFC-Que Choisir estime qu’en privant brutalement les joueurs de tout accès à The Crew, Ubisoft a porté atteinte aux droits essentiels des consommateurs », indique l’association dans un communiqué daté du 31 mars.

L’UFC-Que Choisir ne publie pas les éléments de la procédure, mais explique que cette dernière se concentre sur le principe de « licence d’utilisation », derrière lequel se retranchent les éditeurs de jeux vidéo pour, parfois, révoquer l’accès à un contenu.

« La licéité de toutes les clauses limitant les droits des joueurs doit être interrogée », affirme l’association, qui souhaite voir la justice s’exprimer sur la négation du droit de propriété conféré à l’acheteur d’un jeu, mais aussi sur cette faculté de retirer l’accès au contenu sans garantie de maintien d’un mode de fonctionnement alternatif.

Elle interroge également la subordination de l’utilisation du jeu à des services en ligne susceptibles d’être interrompus, et une pratique commerciale moins spécifiquement liée à The Crew : le refus de rembourser les sommes créditées par des joueurs sur leur compte en ligne.

Une partie de la charge porte également sur ce que l’association qualifie de pratique commerciale trompeuse : « les joueurs n’ont jamais été loyalement informés sur le caractère éventuellement temporaire de l’accès au jeu qu’ils achetaient ».

Toute la subtilité réside ici dans l’appréciation du caractère loyal de cette information. À la date de publication de cet article, le 3 avril 2026, les conditions d’utilisation d’Ubisoft disposent par exemple explicitement que l’éditeur peut modifier les contenus et services associés à ses jeux, notamment « afin de limiter ou d’interrompre les fonctionnalités obsolètes ou non viables du Contenu et/ou des Services lorsque cela est raisonnable ».

« Sauf indication contraire de notre part, nous ne garantissons pas la disponibilité d’un Service ou d’un Contenu pendant une période déterminée », énoncent encore ces conditions d’utilisation.

Les éditeurs à l’unisson

L’enjeu n’est pas anodin pour les éditeurs, puisque le maintien en conditions opérationnelles d’un jeu dépendant de services en ligne suppose des coûts. Le secteur s’était d’ailleurs exprimé de façon coordonnée sur le sujet en juillet dernier, quand la mobilisation autour de Stop Killing Games battait son plein, par l’entremise de sa représentation européenne, Videogames Europe :

« Nous apprécions l’enthousiasme de notre communauté ; cependant, la décision d’interrompre les services en ligne est complexe, jamais prise à la légère, et doit être une option pour les entreprises lorsqu’une expérience en ligne n’est plus commercialement viable. Nous comprenons que cela puisse être décevant pour les joueurs, mais, le cas échéant, le secteur veille à ce qu’ils soient informés des changements envisagés, conformément à la législation locale sur la protection des consommateurs ».

À cette occasion, les éditeurs avaient battu en brèche l’idée de laisser prospérer des serveurs privés gérés par la communauté :

« Les serveurs privés ne constituent pas toujours une alternative viable pour les joueurs, car les protections mises en place pour sécuriser leurs données, supprimer les contenus illégaux et lutter contre les contenus communautaires dangereux seraient inexistantes et les détenteurs de droits seraient tenus responsables. De plus, de nombreux jeux sont conçus dès le départ pour être exclusivement joués en ligne ; de fait, ces propositions limiteraient la liberté de choix des développeurs en rendant la création de ces jeux vidéo excessivement coûteuse. »

En attendant l’examen de ce dossier par le tribunal judiciaire de Créteil, la question de la pérennité des jeux vidéo est désormais posée auprès de la Commission européenne. Saisie suite à une pétition au succès historique avec près de 1,3 million de signatures validées au moment de son enregistrement, elle est censée produire, d’ici au 27 juillet 2026, une réponse écrite listant ses éventuelles décisions en la matière.

Rappelons que l’UFC-Que Choisir a mené pendant près de dix ans un combat juridique contre Valve, l’éditeur de la plateforme Steam, pour tenter d’obtenir la suppression d’un certain nombre de clauses qu’elle considérait comme abusives, telles que l’impossibilité de revendre un jeu dématérialisé. Elle fondait à l’époque sa requête sur la règle juridique de « l’épuisement des droits ». Défaite devant la cour de cassation en octobre 2024, l’association a saisi la Commission européenne d’un recours en manquement en février 2025.

HDD Toshiba M12 : jusqu’à 34 To, avec 11 plateaux en verre

3 avril 2026 à 13:02
J’ai beaucoup trop de vacances… et donc de films de vacances
HDD Toshiba M12 : jusqu’à 34 To, avec 11 plateaux en verre

Toshiba dévoile sa nouvelle série de disques durs M12, qui sera disponible aussi bien en SMR qu’en CMR, avec 28 à 34 To de stockage. Le fabricant se prépare à aller encore plus loin avec l’arrivée du HAMR et le passage à 12 plateaux.

Après Seagate et Western Digital, c’est au tour de Toshiba de dépasser les 30 To avec des disques durs de 3,5 pouces. Le fabricant annonce en effet qu’il a commencé à expédier les premiers échantillons de disques durs de 3,5 pouces de 30 à 34 To, exploitant la technologie SMR.

Des HDD de 30 à 34 To en SMR (Host Managed)


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

EmDash, « successeur spirituel de WordPress » selon Cloudflare… Matt Mullenweg voit rouge

3 avril 2026 à 11:37
Quand Cloudflare explique à WP comment faire du WP
EmDash, « successeur spirituel de WordPress » selon Cloudflare… Matt Mullenweg voit rouge

Avec EmDash, Cloudflare propose un CMS open source misant sur la modernité de ses composants (il est écrit en TypeScript) et la sécurité des plug-ins. Il se place en concurrent de WordPress et prétend même être son « successeur spirituel ». Des affirmations démontées par le co-créateur de WordPress Matt Mullenweg.

WordPress est « la » référence dans le domaine des CMS (content management system ou système de gestion de contenu en français). C’est un projet open source utilisé par des millions de sites web à travers le monde, aussi bien de petits blogs personnels jusqu’au site de la Maison-Blanche, en passant par des entreprises, des médias… Next est lui aussi sur WordPress depuis sa refonte.

Selon certaines estimations, WordPress serait utilisé par plus de 40 % des sites dans le monde. Les forces du CMS sont ses capacités de personnalisation, son nombre de plug-ins (plusieurs dizaines de milliers), sa multitude de thèmes (gratuits et payants), sans oublier sa très large communauté.

CMS open source en TypeScript, avec isolation des plug-ins…


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Google Meet s’invite sur Apple CarPlay, en attendant Android Auto

3 avril 2026 à 09:38


Google a annoncé jeudi 2 avril la prise en charge de Meet, son client de visioconférence, au sein de l’environnement Apple CarPlay :

« Cette fonctionnalité est conçue pour assurer une transition fluide entre votre appareil mobile iOS et votre véhicule, vous permettant ainsi de ne jamais manquer une conversation importante. Que vous soyez en trajet domicile-travail ou entre deux rendez-vous, vous pouvez désormais rejoindre des réunions d’un simple clic, consulter votre agenda et participer à des appels audio pour rester concentré sur la route. »

Google mentionne spécifiquement la nature audio uniquement des échanges pour lever tout soupçon : cette implémentation de Meet pour CarPlay n’autorise logiquement pas la vidéo, en émission comme en réception. Elle permet en revanche d’accéder aux réunions programmées directement sur l’écran de sa voiture.

Google Meet s’invite sur Apple CarPlay – crédit Google

La fonctionnalité est tournée en priorité vers les clients Google Workspace, mais elle est aussi accessible aux particuliers qui se connectent à des réunions Meet via un compte Google personnel, indique l’entreprise. Elle souligne par ailleurs qu’une version de Meet dédiée à Android Auto sera « bientôt » disponible.

Si Apple a été servi avant l’environnement maison, c’est probablement parce que Google a souhaité surfer sur l’introduction, via iOS 26.4, de nouveaux contrôles vocaux destinés à CarPlay. OpenAI a également saisi la balle au bond, en rendant l’application iOS ChatGPT accessible sur l’écran de bord. Le système n’autorise en revanche que des interactions vocales et audio.


OpenAI s’offre la chaîne tech TBPN pour « accélérer la conversation autour de l’IA »

3 avril 2026 à 08:51
In business we trust
OpenAI s’offre la chaîne tech TBPN pour « accélérer la conversation autour de l’IA »

OpenAI met un pied dans le monde des médias avec l’acquisition, annoncée jeudi 2 avril, de la chaîne tech TBPN, centrée sur la tech et l’univers de la Silicon Valley. TBPN, dont le talk show principal serait l’émission préférée de Sam Altman, doit permettre à l’entreprise d’accélérer la « conversation globale autour de l’IA ».

Ils alternent, selon les jours, entre la cravate, les polos de sport ou la veste de costume blanche, lisent l’édition papier du Wall Street Journal les pieds sur leur table jonchée de canettes de soda et sont à tu et à toi avec tout ce que la tech compte d’entrepreneurs en vue : bienvenue sur la chaîne TBPN (pour Technology Business Programming Network).

Une chaîne à la gloire de la Silicon Valley

Lancée fin 2024, TBPN diffuse chaque jour, pendant trois heures et en direct, une succession de séquences de commentaires d’actualités et d’interviews, principalement de fondateurs de startups. Sous leurs airs de yuppies, leurs vannes et le ton détendu, les deux animateurs revendiquent une approche soutenue sur le fond, légitimée par leur propre parcours. John Coogan et Jordi Hays ont en effet eux-mêmes créé plusieurs startups.

Jordi Hays et John Coogan présentent TBPN à raison de trois heures par jour – crédit TBPN

Âgés de respectivement 36 et 29 ans, ils affichent aussi et surtout une posture résolument pro-business. Les levées de fonds sont célébrées à coups de gong, les fondateurs invités sont exhortés à aller plus vite, plus loin, plus fort, et le duo ne se prive pas de jouer la carte de la provocation. Il envisageait d’ailleurs initialement d’appeler son émission Technology Brothers, en réaction au terme « tech bro », désormais connoté de façon négative. Vanity Fair résume leur état d’esprit dans un portrait publié en janvier dernier :

« Sur TBPN, le conflit d’intérêt est un atout, pas un défaut. Les deux animateurs sont chacun fortunés grâce à des cessions d’entreprises valant plusieurs millions de dollars et à des investissements providentiels. Ils savent ce que c’est que de lever des fonds d’amorçage, de finaliser une cession, d’évaluer une offre publique d’achat. Ils échangent régulièrement des SMS avec la moitié de la Silicon Valley. Ils évoquent nonchalamment les fêtes de Noël chez Thiel. »

Passé au format quotidien en janvier 2025, le carnet de bal des deux animateurs s’enorgueillit d’invités très prestigieux : Satya Nadella (Microsoft), Mark Zuckerberg (Meta), Marc Benioff (Salesforce), Alex Karp (Palantir) ou Sam Altman sont par exemple passés par son plateau pour commenter l’actualité du moment et, parfois, dévoiler quelques orientations stratégiques.

Et ça marche : d’après le Wall Street Journal, TBPN emploierait aujourd’hui onze personnes et serait rentable, avec environ 5 millions de dollars de chiffre d’affaires publicitaire en 2025, et une projection à plus de 30 millions de dollars pour 2026. Le show fédère déjà des annonceurs de premier plan : Shopify, Plaid, CrowdStrike, AppLovin ou Google pour Gemini font partie des sponsors, indique Adweek. En décembre 2025, consécration institutionnelle : il signe un partenariat avec la bourse de New York, qui relaie certains de ses programmes.

Les audiences sont relativement modestes, de l’ordre de 70 000 spectateurs par émission selon le WSJ, mais elles semblent suffisamment qualifiées pour que The Free Press qualifie TBPN de show le plus influent de la Silicon Valley en septembre 2025.

OpenAI s’offre un levier d’influence

« TBPN a construit quelque chose de vraiment spécial », salue Fidji Simo, la numéro deux d’OpenAI, en annonçant l’acquisition de la chaîne jeudi 2 avril.

Pourquoi racheter une chaîne YouTube alors que les propos de Sam Altman et les communications d’OpenAI sont déjà relayés, commentés et amplifiés par les médias du monde entier ?

« Nous ne sommes pas une entreprise comme les autres. Nous sommes à l’origine d’une véritable révolution technologique. Et notre mission, qui est de faire en sorte que l’intelligence artificielle générale profite à toute l’humanité, nous impose la responsabilité de contribuer à créer un espace de dialogue constructif et authentique sur les changements induits par l’IA, en plaçant au cœur de cette démarche les développeurs et les utilisateurs de cette technologie », écrit Fidji Simo.

Elle promet par ailleurs que l’équipe TBPN gardera son indépendance et sa liberté de ton, et affirme que les talents de communicants et les « instincts marketing » de John Coogan et Jordi Hays serviront à nourrir les équipes et les travaux d’OpenAI.

« TBPN est mon émission tech préférée. Nous voulons qu’ils continuent sur cette lancée et qu’ils fassent ce qu’ils font si bien. Je ne m’attends pas à ce qu’ils y aillent plus mollo avec nous, et suis sûr que je ferai ma part pour les y aider avec des décisions stupides à l’occasion », affirme de son côté Sam Altman.

« Bien que nous ayons parfois été critiques envers le secteur, après avoir fait la connaissance de Sam et de l’équipe d’OpenAI, ce qui nous a le plus marqués, c’est leur ouverture aux suggestions et leur engagement à réussir. Passer des simples commentaires à un impact concret sur la manière dont cette technologie est diffusée et comprise à l’échelle mondiale est extrêmement important pour nous », commentent les deux protagonistes du show.

Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »

3 avril 2026 à 07:20
Ouvrir le débat
Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »

Professeure de droit, spécialiste des violences de genre, Clare McGlynn a étudié la manière dont les robots conversationnels renforcent diverses problématiques de violence contre les filles et les femmes. Auprès de Next, elle appelle à ouvrir le débat.

« Ce que l’on constate est tout à fait similaire à n’importe quel épisode précédent de développement rapide de technologie, où les dommages que l’on voit émerger le plus tôt sont des violences contre les filles et les femmes. » Ces mots, ce sont ceux de Maeve Walsh, directrice de l’Online Safety Act Network.

Aux côtés de multiples autres expertes du monde du numérique comme de celui de l’accueil et de l’écoute des victimes de violences sexistes et sexuelles au Royaume-Uni, Maeve Walsh a été interrogée par la professeure de droit et spécialiste des violences de genre à l’université de Durham (Royaume-Uni) Clare McGlynn et son équipe. En 132 pages, cette dernière dresse une description précise de la manière dont les systèmes d’IA générative accessibles au grand public et les modèles d’IA compagnon influent voire renforcent diverses problématiques de violence de genre à composante numérique.

>> Qu’est-ce qui vous a poussée à lancer ce projet de recherche ?

Dans son ouvrage The New Age of Sexism (Simon and Schuster, mai 2025), l’écrivaine Laura Bates passe un chapitre à évoquer la question des robots conversationnels. Quand je l’ai lu l’an dernier, j’ai tout de suite pensé : ça va devenir un problème, il faut qu’on l’étudie.

Nous sommes au début d’une nouvelle ère, les robots conversationnels mainstream ont des millions d’utilisateurs [900 millions d’utilisateurs actifs par semaine pour ChatGPT, de 18 à 30 millions d’utilisateurs par mois selon les estimations pour Claude, ndlr], les compagnons IA sont aussi de plus en plus utilisés [Replika AI compterait plus de 40 millions d’utilisateurs, Character AI plus de 20 millions d’utilisateurs actifs mensuels, ndlr]. Or, après enquête, nous avons bien trouvé quelques travaux ici et là, sur la manière dont ces machines renforcent les enjeux de stalking, notamment. Mais rien ne rassemblait toutes les manières qu’ont les chatbots d’agir sur les enjeux de violences contre les femmes et les filles.

Le but de ce rapport consiste surtout à sensibiliser, à faire émerger le sujet. Les risques en termes de violences de genre ont augmenté à mesure que les robots conversationnels s’amélioraient. Ça s’est vu avec la disponibilité de Grok sur X, par exemple, qui permet de fournir des données problématiques à des stalkers, ou encore dans le cas de la vague de deepfakes pornographiques.

L’enjeu le plus « neuf » : les conduites problématiques « générées automatiquement »

>> Vous classifiez les risques des robots conversationnels en trois catégories. Pouvez-vous nous les détailler ?


Il reste 73% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Deux ans plus tard, Intel rachète déjà les 49 % manquants de sa Fab 34 en Irlande

3 avril 2026 à 06:50


Cette semaine, le fondeur a annoncé qu’il allait « racheter 49 % des parts de sa coentreprise irlandaise Fab 34 ». Il s’agit de récupérer la part qui avait été vendue il y a deux ans à peine au fonds Apollo, pour 11,2 milliards de dollars. Coût de l’opération cette fois-ci : 14,2 milliards de dollars.

Cette transaction a apporté à Intel « une plus grande souplesse financière et a permis à l’entreprise de libérer et de redéployer des capitaux pour faire avancer ses priorités stratégiques, notamment l’accélération du développement d’Intel 4 et 3, les plus avancés en Europe, ainsi que le processus Intel 18A, le plus avancé, développé et fabriqué aux États-Unis aujourd’hui ».

2024 était, pour rappel, une année compliquée pour Intel qui, après un mauvais trimestre, avait annoncé pas moins de 15 000 licenciements et recentré ses priorités stratégiques. Des investissements sont ensuite arrivés et l’administration Trump est même montée à 9,9 % du capital. Fin 2025, c’est même NVIDIA qui est entré au capital.

Fin 2023, la production de masse avec un procédé de gravure Intel 4 débutait dans la Fab 34 irlandaise. Meteor Lake (Core Ultra Série 1) exploite pour rappel Intel 4. Les Panther Lake (Core Ultra Series 3) sont pour leur part en Intel 18A et les premiers gravés aux États-Unis. L’usine irlandaise produit aussi des puces avec le procédé Intel 3, utilisé par des Xeon de 6ᵉ génération.

David Zinsner, CFO d’Intel, affirme que l’accord de 2024 « s’est avéré être la bonne solution au bon moment et a offert à Intel une flexibilité considérable, nous permettant ainsi d’accélérer dans la mise en œuvre d’initiatives essentielles. Aujourd’hui, nous disposons d’un bilan plus solide, d’une discipline financière renforcée et d’une stratégie commerciale modernisée ».

Suite à cette annonce, l’action d’Intel a bondi de près de 10 % et, encore aujourd’hui, elle est à 13 % de plus que son niveau fin mars.

☕️ Steam sur Linux dépasse pour la première fois les 5 %… mais attention aux chiffres de Valve

3 avril 2026 à 06:22


Au début de l’année, après un cafouillage sur les chiffres mis en ligne par Valve, Steam sur Linux atteignait une part de marché de 3,58 %.

Sur les trois premiers mois de l’année, les statistiques jouent un peu aux montagnes russes. Une petite baisse de 0,20 point début février pour arriver à 3,38 %. Puis de nouveau une baisse, mais plus franche cette fois-ci à 2,23 % début mars.

La part de marché de Linux est désormais de 5,33 %, sans que l’on comprenne pourquoi il y a de telles variations. La hausse est en effet de 3,10 points entre les statistiques de début mars et celles de début avril, loin d’être négligeable puisque la part de marché fait plus que doubler. macOS progresse de 1,19 point à 2,35 %, tandis que Windows perd 4,28 points à 92,33 %.

Dans le détail, SteamOS Holo 64 bit progresse de 0,65 point pour arriver à 24,48 % de part de marché sur les machines Linux seules. Un mystérieux « 0 64 bit » est en deuxième position avec 17,60 % tout de même (il vient de faire son entrée dans le classement), puis un autre identifié comme (64 bits) plus bas, qui fait aussi son entrée à+ 8,01 %.

Gamingonlinux tient à jour un tracker depuis 2018 et on peut voir la très forte progression de Linux sur Steam sur le dernier relevé de mars 2026 :

Bref, des chiffres à prendre pour le moment avec des pincettes tant ils soulèvent des questions. Ce ne serait pas la première fois que Valve mettrait à jour ses chiffres après les avoir publiés. Quoi qu’il en soit, la trajectoire sur le long terme est à la progression franche. Steam sur Linux a atteint les 2 % fin 2023 et les 3 % fin 2025 avec la fin du support de Windows 10. Si la barre symbolique des 5 % était confirmée, ce serait un nouveau palier important.

☕️ 6 Go de mémoire vive sont désormais recommandés pour Ubuntu 26.04

2 avril 2026 à 14:42


La sortie de la première bêta d’Ubuntu 26.04 s’accompagne d’une petite info passée inaperçue au moment de la publication : Canonical a discrètement révisé à la hausse la quantité de mémoire vive recommandée pour le bon fonctionnement sur un poste de travail.

Les notes de version qui préparent la sortie de la version finale, programmée au 23 avril prochain, indiquent en effet qu’Ubuntu Desktop 26.04 LTS exige au minimum un processeur double cœur cadencé à 2 GHz, 25 Go d’espace de stockage et 6 Go de mémoire vive.

La dernière version LTS (Long Term Support, avec cinq ans de support garanti et cinq ans de support optionnel) affichait des exigences similaires en matière de processeur et de stockage, mais elle se contentait de 4 Go de mémoire vive.

Fonds d’écran Ubuntu Resolute Raccoon

Cette révision à la hausse ne signifie pas qu’Ubuntu 26.04 ne fonctionnera pas sur des machines équipées de moins de 6 Go de mémoire vive. OmgUbuntu, qui s’est le premier fait l’écho de cette découverte, y voit plutôt une forme de constat honnête. Les besoins intrinsèques au système d’exploitation n’ont pas particulièrement évolué, mais la configuration recommandée doit prendre en compte l’évolution des usages.

Avec toujours plus de multitâche, et la propension de certaines applications courantes à consommer toujours plus de mémoire vive, 6 Go peuvent en effet apparaître comme un minimum recommandé pour exploiter de concert l’environnement par défaut (GNOME 50), un navigateur Web et les applications courantes du quotidien.

En ces temps marqués par une envolée des prix de la mémoire vive, qui conduit par exemple à des hausses de tarif significatives sur la gamme des mini-PC Raspberry Pi, certains y verront peut-être un signal supplémentaire pour penser sobriété numérique, quitte à basculer d’Ubuntu vers des distributions plus légères, voire minimalistes, notamment s’il s’agit de redonner vie à une machine un peu ancienne.

En pratique, la bêta d’Ubuntu 26.04 consomme environ 1,4 Go de mémoire vive au repos, témoigne un internaute sur Reddit.

Notons que les exigences affichées sont nettement moindres pour l’édition Ubuntu Server 26.04 LTS, puisqu’elles démarrent à 1,5 Go de mémoire vive et 4 Go d’espace de stockage.

Anthropic face à la fuite de Claude Code : tout comprendre en trois questions

2 avril 2026 à 13:46
Il est libre Claude
Anthropic face à la fuite de Claude Code : tout comprendre en trois questions

Anthropic est encore sur le devant de la scène, pas suite à une annonce ou un délire de son intelligence artificielle mais à une nouvelle grosse bourde « humaine » entrainant la fuite de plus de 500 000 lignes de Claude Code. Next vous propose un tour du sujet, sous la forme de questions/réponses, afin de bien comprendre tous les enjeux.

Que s’est-il passé ?

Le 31 mars, un développeur, Chaofan Shou, découvre dans le paquet npm de Claude Code (celui qui est récupéré quand on installe l’application via la commande npm install @anthropic-ai/claude-code) un fichier .map qui n’aurait jamais dû se retrouver là.

Le code source de Claude Code n’est, pour rappel, pas publié par Anthropic. Le code récupéré par les utilisateurs est déjà compilé et minifié pour qu’ils puissent l’utiliser, mais sans jamais remonter à la source. Le fichier source map « fait le lien entre le code minifié ou transformé reçu par le navigateur et sa forme originale non modifiée, permettant de reconstituer et d’utiliser le code original lors du débogage », explique Mozilla.

Le source map c’est comme le livre de recettes de Claude Code

C’est un peu comme en cuisine. Le livre de recettes fait le lien entre le plat servi au client et les ingrédients bruts, avec la manière de les préparer et de les assembler. Le fichier .map fait la même chose entre le code source (non disponible) et le programme livrés aux utilisateurs. Comme un chef garde jalousement le détail de ses recettes, un développeur qui ne publie pas ses sources se doit de garder précieusement son source map.


Il reste 90% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ En Italie, une « fausse version » de WhatsApp contenait en fait un logiciel espion

2 avril 2026 à 13:00


WhatsApp explique à TechCrunch avoir informé « environ 200 utilisateurs » d’iPhone, principalement en Italie, qu’ils avaient été manipulés pour installer une « fausse version malveillante » de l’application de messagerie contenant en réalité un logiciel espion :

« Nous les avons déconnectés, les avons avertis des risques pour leur vie privée et leur sécurité liés au téléchargement de faux clients non officiels, et les avons encouragés à le désinstaller et à télécharger l’application officielle WhatsApp. »

TechCrunch illustre son article avec une « capture d’écran de la notification envoyée par WhatsApp aux utilisateurs pour les inviter à télécharger l’application officielle », mais sans expliquer comment WhatsApp aurait réussi, ni à identifier les utilisateurs de la « fausse version malveillante » de l’application, ni à communiquer avec eux via cette dernière.

Capture d’écran de la notification envoyée par WhatsApp – TechCrunch

WhatsApp accuse le fabricant italien de logiciels espions SIO, qui précise sur son site travailler « en partenariat avec les forces de l’ordre, les organismes gouvernementaux, la police et les services de renseignement », d’être derrière cette opération.

L’an passé, TechCrunch avait déjà révélé que SIO était à l’origine d’une série d’applications Android malveillantes contenant son logiciel espion Spyrtacus, notamment de fausses versions de WhatsApp ainsi que de faux outils d’assistance client destinés aux opérateurs de téléphonie mobile.

L’utilisation d’applications frauduleuses contre des personnes placées sous surveillance est une tactique couramment employée par les autorités italiennes, souligne TechCrunch. Pour ce faire, elles sollicitent souvent la collaboration des opérateurs de téléphonie mobile, afin qu’ils envoient à leurs clients des liens de phishing vers un logiciel espion des forces de l’ordre.

❌