Vue normale

Reçu — 7 avril 2026 Actualités numériques

Apple Faces 'Massive Dilemma' With Success of the MacBook Neo

Par : BeauHD
7 avril 2026 à 23:00
Apple may have a supply problem on its hands with the MacBook Neo... The laptop reportedly relies on "binned" A18 Pro chips with one GPU core disabled, and demand is so strong that the supply of those cheaper leftover chips could run out before the next model is ready. That leaves Apple choosing between lower margins, shifting production plans, or changing the lineup to keep its $599 hit product in stock. MacRumors reports: The all-new MacBook Neo has been such a hit that Apple is facing a "massive dilemma," according to Taiwan-based tech columnist and former Bloomberg reporter Tim Culpan. [...] In the latest edition of his Culpium newsletter today, Culpan said the MacBook Neo is selling so well that Apple's supply of the binned A18 Pro chips with a 5-core GPU will "run out" before the company is able to fully satisfy demand for the laptop. Apple's initial plan was to have suppliers build around five to six million MacBook Neo units before ceasing production of the model with the A18 Pro chip, he said, but it sounds like demand is so strong that Apple might run out of A18 Pro chips to put in the MacBook Neo before the second-generation MacBook Neo with an A19 Pro chip is ready next year. Apple is unlikely to mark the MacBook Neo as temporarily sold out, so it may be forced to take action, but profit margins might be affected. A18 Pro chips are manufactured with TSMC's second-generation 3nm process, known as N3E, and Culpan said TSMC's N3E production lines are currently operating at maximum capacity. As a result, he said that Apple may have to pay a premium to restart A18 Pro chip production for the MacBook Neo, which would lower its profit margins. Apple would have to disable a GPU core on these chips to ensure that they have only a 5-core GPU, like all other MacBook Neo units sold to date. Alternatively, Culpan said that Apple could reallocate some of its chip production that was originally planned for other devices, but he said the cost would still be higher than what it paid for its initial batch of A18 Pro chips. Culpan speculated that Apple could also opt to discontinue the $599 model with 256GB of storage, leaving the $699 model with 512GB of storage and a Touch ID button as the only configuration available. This is unlikely to happen any time soon, in our view, given how heavily Apple has been promoting the MacBook Neo's affordability. Apple might also be able to move up the release of a MacBook Neo with the iPhone 17 Pro's A19 Pro chip, but that too would be a costlier option, at least until the company achieves a sufficient stockpile of binned A19 Pro chips with a 5-core GPU. In any case, Apple could opt to keep the starting price of current and future MacBook Neo models at $599 and simply accept lower profit margins on the laptop, especially given that it attracts customers to the macOS and broader Apple ecosystem.

Read more of this story at Slashdot.

Anthropic Unveils 'Claude Mythos', Powerful AI With Major Cyber Implications

Par : BeauHD
7 avril 2026 à 22:00
"Anthropic has unveiled Claude Mythos, a new AI model capable of discovering critical vulnerabilities at scale," writes Slashdot reader wiredmikey. "It's already powering Project Glasswing, a joint effort with major tech firms to secure critical software. But the same capabilities could also accelerate offensive cyber operations." SecurityWeek reports: Mythos is not an incremental improvement but a step change in performance over Anthropic's current range of frontier models: Haiku (smallest), Sonnet (middle ground), and Opus (most powerful). Mythos sits in a fourth tier named Copybara, and Anthropic describes it as superior to any other existing AI frontier model. It incorporates the current trend in the use of AI: the modern use of agentic AI. "The powerful cyber capabilities of Claude Mythos Preview are a result of its strong agentic coding and reasoning skills... the model has the highest scores of any model yet developed on a variety of software coding tasks," notes Anthropic in a blog titled Project Glasswing -- Securing critical software for the AI era. In the last few weeks, Mythos Preview has identified thousands of zero-day vulnerabilities with many classified as critical. Several are ten or 20 years old -- the oldest found so far is a 27-years old bug in OpenBSD. Elsewhere, a 16-years old vulnerability found in video software has survived five million hits from other automated testing tools without ever being discovered. And it autonomously found and chained together several in the Linux kernel allowing an attacker to escalate from ordinary user access to complete control of the machine. [...] Anthropic is concerned that Mythos' capabilities could unleash cyberattacks too fast and too sophisticated for defenders to block. It hopes that Mythos can be used to improve cybersecurity generally before malicious actors can get access to it. To this end, the firm has announced the next stage of this preparation as Project Glasswing, powered by Mythos Preview. Given the rate of AI progress, it will not be long before such capabilities proliferate, potentially beyond actors who are committed to deploying them safely. "Project Glasswing is a starting point. No one organization can solve these cybersecurity problems alone: frontier AI developers, other software companies, security researchers, open-source maintainers, and governments across the world all have essential roles to play." Claude Mythos Preview is described as a general-purpose, unreleased frontier model from Anthropic that has nevertheless completed its training phase. The firm does not plan to make Mythos Preview generally available. The implication is that 'Preview' is a term used solely to describe the current state of Mythos and the market's readiness to receive it, and will be dropped when the firm gets closer to general release.

Read more of this story at Slashdot.

Chrome Is Finally Getting Vertical Tabs

Par : BeauHD
7 avril 2026 à 21:00
Chrome is finally adding built-in vertical tabs, "which will move the tabs to the side of the browser window, making it easier to read full page titles and manage tab groups," reports TechCrunch. The company is also introducing an immersive reading mode for a distraction-free, text-focused experience. From the report: The company notes that the new vertical tabs can be enabled at any time by right-clicking on a Chrome window and selecting "Show Tabs Vertically." The company says there's no hard limit on the number of tabs that can be opened (beyond what would be limited already by the user's hardware). The vertical tabs work just as the horizontal tabs do, meaning you can have different Chrome windows with their own set of tabs or tab groups. [...] Alongside the launch of vertical tabs, Chrome is also rolling out a new Reading Mode experience, which will offer a full-page interface to make it even easier to reduce on-screen clutter to focus on the text. This will be the new default experience for Chrome users, and arrives at a time when web pages, particularly those on news sites, have become cluttered with ads and prompts to subscribe to newsletters.

Read more of this story at Slashdot.

Supreme Court Wipes Piracy Liability Verdict Against Grande Communications

Par : BeauHD
7 avril 2026 à 20:00
An anonymous reader quotes a report from TorrentFreak: Following on the heels of the landmark Cox v. Sony ruling, the Supreme Court has vacated the contributory copyright infringement verdict against ISP Grande Communications, ordering the Fifth Circuit to reconsider its decision in light of the new precedent. [...] The order (PDF) effectively removes the case from the Supreme Court docket, urging the Fifth Circuit Court of Appeals to take another look at its decision in light of the new ruling. Given the similarities between the two cases, it is no surprise that the Supreme Court came to this conclusion. It is now up to the Fifth Circuit to revisit whether Grande's conduct meets the intent threshold that was established in Cox. That is a significantly higher bar than the one applied in the original verdict, which found that continuing to provide service to known infringers was enough to establish material contribution. The music companies previously said they sent over a million copyright infringement notices, but that Grande failed to terminate even a single subscriber account in response. However, without proof of active inducement, these absolute numbers carry less weight now. Whether this translates into a win for Grande on remand remains to be seen. For now, however, the original $47 million verdict is further away than ever.

Read more of this story at Slashdot.

GIGABYTE poursuit sa timide percée dans les cartes mères waifus. Alors, intéressés ?

Sans trop communiquer à son sujet, GIGABYTE avait lancé l'année dernière une version "waifu" de sa carte mère Intel LGA1700 B760M AORUS ELITE WIFI6E GEN5. Son nom se voyait affublé d'un "-P" pour devenir B760M AORUS ELITE WIFI6E-P GEN5. Elle inaugurait l'arrivée de la mascotte "Ari", chez GIGABYTE.L...

Testing Suggests Google's AI Overviews Tells Millions of Lies Per Hour

Par : BeauHD
7 avril 2026 à 19:00
A New York Times analysis found Google's AI Overviews now answer questions correctly about 90% of the time, which might sound impressive until you realize that roughly 1 in 10 answers is wrong. "[F]or Google, that means hundreds of thousands of lies going out every minute of the day," reports Ars Technica. From the report: The Times conducted this analysis with the help of a startup called Oumi, which itself is deeply involved in developing AI models. The company used AI tools to probe AI Overviews with the SimpleQA evaluation, a common test to rank the factuality of generative models like Gemini. Released by OpenAI in 2024, SimpleQA is essentially a list of more than 4,000 questions with verifiable answers that can be fed into an AI. Oumi began running its test last year when Gemini 2.5 was still the company's best model. At the time, the benchmark showed an 85 percent accuracy rate. When the test was rerun following the Gemini 3 update, AI Overviews answered 91 percent of the questions correctly. If you extrapolate this miss rate out to all Google searches, AI Overviews is generating tens of millions of incorrect answers per day. The report includes several examples of where AI Overviews went wrong. When asked for the date on which Bob Marley's former home became a museum, AI Overviews cited three pages, two of which didn't discuss the date at all. The final one, Wikipedia, listed two contradictory years, and AI Overviews confidently chose the wrong one. The benchmark also prompts models to produce the date on which Yo Yo Ma was inducted into the classical music hall of fame. While AI Overviews cited the organization's website that listed Ma's induction, it claimed there's no such thing as the Classical Music Hall of Fame. "This study has serious holes," said Google spokesperson Ned Adriance. "It doesn't reflect what people are actually searching on Google." The search giant likes to use a test called SimpleQA Verified, which uses a smaller set of questions that have been more thoroughly vetted.

Read more of this story at Slashdot.

Anthropic Reveals $30 Billion Run Rate, Plans To Use 3.5GW of New Google AI Chips

Par : BeauHD
7 avril 2026 à 18:00
Anthropic says its annualized revenue run rate has surpassed $30 billion and disclosed plans to secure roughly 3.5 gigawatts of next-generation Google TPU compute starting in 2027. Broadcom will supply the key chips and networking gear for the effort, the company announced. The Register reports: News of the two deals emerged today in a Broadcom regulatory filing that opens with two items of news. One is a "Long Term Agreement for Broadcom to develop and supply custom Tensor Processing Units ("TPUs") for Google's future generations of TPUs." Google and Broadcom have collaborated to produce custom TPUs. Broadcom CEO Hock Tan recently shared his opinion that hyperscalers don't have the skill to create custom accelerators and predicted Broadcom's chip business will therefore win over $100 billion of revenue from AI chips in 2027 alone. Working on next-gen TPUs for Google will presumably help to make that prediction a reality. So will the second part of Broadcom's announcement: a "Supply Assurance Agreement for Broadcom to supply networking and other components to be used in Google's next-generation AI racks through up to 2031." Broadcom's filing also revealed one user of Google's next-gen TPU will be Anthropic, which starting in 2027, "will access through Broadcom approximately 3.5 gigawatts as part of the multiple gigawatts of next generation TPU-based AI compute capacity committed by Anthropic."

Read more of this story at Slashdot.

Cloudflare Fast-Tracks Post-Quantum Rollout To 2029

Par : BeauHD
7 avril 2026 à 17:00
Cloudflare is accelerating its post-quantum security plans and now aims to make its entire platform fully post-quantum secure by 2029. "The updated timeline follows new developments in quantum computing research that suggest current cryptographic standards could be broken sooner than previously expected," reports SiliconANGLE. From the report: The decision by Cloudflare to move its post-quantum security roadmap forward comes after Google LLC and research from Oratomic demonstrated significant advances in algorithms and hardware capable of breaking widely used encryption methods such as RSA-2048 and elliptic curve cryptography. [...] The company said progress across three key areas -- quantum hardware, error correction and quantum algorithms -- is advancing in parallel and compounding overall capability. Improvements in areas such as neutral atom architectures and more efficient error correction are reducing the resources required to break encryption, while algorithmic advances are lowering computational complexity. [...] Cloudflare has already deployed post-quantum encryption across a large portion of its network and reports that more than half of human traffic it processes now uses post-quantum key agreement. The company plans to expand support for post-quantum authentication in 2026, followed by broader deployment across its network and products through 2028. By 2029, Cloudflare said, it expects all of its services to be fully post-quantum secure, with those services being available by default across its platform, without requiring customer action or additional cost as part of the company's commitment to security upgrades. Google said it plans to accelerate its post-quantum encryption migration target to 2029.

Read more of this story at Slashdot.

La production de cartes mères DDR3 relancée chez Colorful ?

Avec la flambée des prix de la DDR5, mais aussi de la DDR4, certains en viennent parfois à envisager des solutions qui ne leur seraient jamais venues à l'esprit il y a encore 6 mois de cela. L'une de ces solutions "extrêmes", quand on a un tout petit budget, est de finalement se tourner pourquoi pas...

New Revelations Reignite Crypto Scandal Involving Argentina's President Milei

Par : BeauHD
7 avril 2026 à 16:00
An anonymous reader quotes a report from the New York Times: President Javier Milei of Argentina promoted a cryptocurrency last year that quickly skyrocketed in value then cratered just as fast, costing investors millions of dollars and setting off a scandal and an investigation. Mr. Milei said he was simply highlighting a private venture and had no connection to the digital coin called $Libra. New evidence is now raising questions about his assertion. Phone logs from a federal investigation by Argentine prosecutors into the coin's collapse show seven phone calls between Mr. Milei and one of the entrepreneurs behind the cryptocurrency on the night in 2025 when Mr. Milei posted about $Libra on X. The contents of the calls, which took place before and after Mr. Milei's post, are not known. But the phone logs -- which were obtained by The New York Times and first reported by a local cable news channel, C5N -- suggest a greater degree of communication between Mr. Milei and the entrepreneurs who launched the token than what the president has publicly acknowledged. Newly uncovered messages also suggest Mr. Milei received regular payments from one of the entrepreneurs while he was a congressman. Mr. Milei has not publicly commented on the call logs and other documents, and he did not respond to a request for comment. He is named as a person of interest in the federal prosecutor's continuing investigation into the digital coin, according to court documents reviewed by The Times, but has not been formally charged with any crime. The latest revelations have revived a scandal that threatens the very foundation of a president who rose to power and was elected president in 2023 by attacking a political class he called corrupt.

Read more of this story at Slashdot.

Moniteurs gaming : Samsung leader pour la septième année consécutive, mais quid d’Asus ?

Samsung a fièrement annoncé qu’en 2025, elle avait conservé, pour la septième année consécutive, sa place de n°1 mondial des moniteurs de jeu. L’entreprise coréenne revendique aussi être arrivée en tête sur le segment des moniteurs gaming OLED... [Tout lire]

C'est le jour J pour les laptops avec Snapdragon X2 Elite. Alors, la 2e tentative est la bonne ?

Fin 2023, Qualcomm dévoilait ses processeurs Arm pour laptops Windows baptisés Snapdragon X Elite, et nous promettait monts et merveilles quant aux performances de ses puces, dès leur première génération. Au final, ce fut plutôt la débandade. Des instabilités, des incompatibilités, une plateforme Wi...

Ubuntu 26.04 Provides More Performance For AMD Ryzen AI Max "Strix Halo"

7 avril 2026 à 15:15
Last week I provided benchmarks to quantify how the AMD Strix Halo graphics performance has evolved since launch one year ago, in today's article is a look at how the Zen 5 CPU performance with the flagship Ryzen AI Max+ 395 has evolved under Linux in the year since these exciting APUs began making their way to high-end laptops and desktops. Complementing the nice Radeon 8060S performance gains are also some nice CPU performance benefits quantified when using Ubuntu 26.04.

Stanford Daily Ponders Fate of Bill Gates Namesake Building On April Fools' Day

Par : BeauHD
7 avril 2026 à 15:00
theodp writes: "Gates Computer Science Building renamed Peter Thiel Center for Panoptic Computing" reads the headline of an April Fools' Day story that ran in the Humor section of The Stanford Daily (with the further disclaimer that "This article is purely satirical and fictitious"). The story begins: "Following revelations that the billionaire founder of Microsoft, Bill Gates, had a longstanding relationship with convicted child sex trafficker Jeffrey Epstein, Stanford has announced it will strip Gates' name from the William H. Gates Computer Science Building and instead honor alumnus Peter Thiel B.A. '89, JD '92. Gates, who is not a Stanford alumnus, gave an initial gift of $6 million toward the building's construction in 1992." While fictional, the story does make one wonder what may become of the academic and institutional buildings worldwide named after Bill Gates in the blowback over his past ties to Epstein, which have already played a factor in the breakdown of his marriage to Melinda French Gates and friendship with Warren Buffet. In addition to The Gates Computer Science Building at Stanford, this includes the Bill and Melinda Gates Computer Science Complex at the University of Texas at Austin, Bill and Melinda Gates Hall at Cornell, The Bill & Melinda Gates Center for Computer Science & Engineering at the University of Washington, and The William H. Gates Building at MIT's Stata Center. Buildings named after Gates' parents include Mary Gates Hall and William H. Gates Hall at the University of Washington, and The William Gates Building at the University of Cambridge (UK). Aside from the Thiel angle, The Stanford Daily's April Fools' Day story may not be as far-fetched as it may seem -- many universities' naming policies include provisions allowing donors' names to be removed from buildings, programs, or other facilities under extraordinary circumstances. For example, the University of Washington's Regent Policy No. 50 states, "The University reserves the right to revoke and terminate any naming on reasonable grounds not limited to the revelation of corporate or individual acts detracting from the University's mission, integrity, or reputation." Then again, UW notes that Bill's parents and siblings served as UW Regents for decades, so one expects Bill will be granted some leeway here for what he has characterized as 'foolish' choices on his part.

Read more of this story at Slashdot.

TopAchat PC-Finder pour choisir sa config en fonction de ses jeux

7 avril 2026 à 14:26

PC-Finder est un nouveau service proposé par Topachat. Un service qui se penche sur un problème classique et une qusetion posée en permanence aux « informaticiens ». Celui d’une connaissance qui demande « Qu’est-ce qu’il faut que j’achète comme PC ?« . Question qui n’a évidemment pas de réponse.

Pour tenter de répondre tout de même du mieux possible à cette interrogation, il faut toujours un peu de contexte. Ma première réponse habituelle est : « Un PC pour quoi faire ? » suivie très rapidement d’une demande de fourchette de budget. Sans ces éléments, il est impossible de répondre convenablement. L’ordinateur parfait et pour tout le monde n’existe pas, il y a toujours des concessions et des adaptations à faire pour trouver la meilleure solution possible.

Ceux qui vous sortent un « Top 3 » des meilleurs ordinateurs du moment n’ont pas d’autre but que d’essayer de vous vendre quelque chose. L’ordinateur parfait pour un artisan, une famille ou un étudiant n’est franchement pas le même. Et pour un joueur, le nombre de paramètres et les quelques éléments qui changent sur le papier peuvent avoir d’énormes différences sur le bas de la facture. En ce moment, passer de 16 à 32 Go de mémoire ou de 512 Go à 1 To de stockage, peut faire très mal financièrement.

PC-Finder

Avec le PC-Finder TopAchat s’intéresse aux joueurs PC

Le PC-finder de Topachat propose deux manières de répondre à cette question avec comme analyse un usage ludique de sa machine. La première méthode passe par un choix de cinq jeux. L’assembleur sélectionne une série de titres à la mode, mise à jour chaque trimestre, et propose de construire un PC sur mesure pour piloter ces jeux en fonction de réglages classiques : nombre d’images par seconde attendu de 60 à 240. Qualité des graphismes espérés de « moyen » à « ultra ». Et définition de l’affichage pour jouer en 1080p, 1440p ou 2160p.

Ces résultats ne sont pas nés du hasard mais correspondent à des formules de machines assemblées et testées par TopAchat. Les configurations assemblées par leurs soins sont testées et permettent de faire des statistiques de performances qui sont consignées par la marque. Ces tests permettent également de voir si un PC répond au niveau de performances attendu après un montage et avant d’être livré au client.

Il faut ensuite faire une sélection de jeux, cinq sont requis pour déterminer un « profil » qui servira à adapter les besoins de la machine. Il serait évidemment possible de n’en choisir qu’un seul, mais certains « cocktails » matériels sont parfaitement adaptés à un moteur de jeu tout en étant moins pertinents pour d’autres. Choisir cinq titres, même assez semblables dans leur manière d’être joués, permet d’homogénéiser l’expérience et d’assurer une bonne compatibilité. Les moteurs employés ne sont pas forcément les mêmes, les besoins non plus. Cette approche est donc assez large.

Il ne reste plus qu’a cliquer sur le bouton « Trouver mon PC » pour afficher une sélection de machines adaptées à ses besoins.

En se basant sur les choix de jeux et les réglages voulus d’affichage, le système détermine ainsi trois choix différents. Il est possible de modifier ses choix de réglages à tout moment.

Pour mes choix, trois profils de jeux sont proposés. D’abord un PC adapté qu’il faut bien comprendre comme une machine qui sera capable de proposer le niveau de performances demandé, mais en étant peut-être assez haut dans ses capacités globales. Le PC recommandé est une version un peu plus puissante qui offrira en général plus de performances globales et peut-être un fonctionnement moins gourmand en ressources sur l’ensemble. C’est évidemment une solution plus onéreuse.

Enfin, un modèle plus performant permet de faire le contraste d’investissement entre les différents choix. Cela offre une certaine perspective et montre l’écart de prix entre un engin plus haut de gamme et une solution juste adaptée. Ce qui peut avoir du sens pour certains profils. Pour chaque machine, l’outil affiche les résultats obtenus sur les jeux sélectionnés mais également tous les autres. Ce qui permet de se faire une idée des résultats de la machine sur un panel très large de 20 titres avec et sans options RTX et FSR.

En ajoutant le PC au panier, on peut ensuite le découvrir en détail. Composant par composant avec une fiche technique. On peut également le voir en image et lire les avis des précédents clients. 

L’autre option est basée sur un budget et permet de déterminer à partir d’une enveloppe quels PC correspondent à ses besoins. Pour atteindre le jeu en 1440p, le système propose de partir sur une enveloppe de 1500€ et propose ainsi trois modèles différents. Un légèrement en dessous, un second un peu au dessus  et enfin un troisième toujours là pour faire contraste.

Je trouve l’approche intéressante. En partie parce qu’elle est construite autour de résultats concrets issus des bancs de montage et de tests des engins et non pas de paramètres tirés du chapeau d’un benchmark. Cela permet de savoir réellement ce que valent les 100, 200 ou 300€ de plus injectés dans une configuration.

Si l’outil n’est pas parfait, on peut lui reprocher le choix des jeux par exemple, il faut comprendre que multiplier les titres a des conséquences assez lourdes en temps de test. Un seul jeu en plus et ce sont des dizaines de configurations qui sont affectées. Ce choix de 20 jeux permet de se faire une idée conséquente des capacités de chaque machine.

Le PC-Finder ne sera évidemment pas utile pour une personne à la recherche d’un PC pour des usages de programmation, de comptabilité ou de montage vidéo. Ce n’est pas son objectif. Mais l’idée est bonne et elle permet de dégrossir un budget et une base technique en quelques clics. C’est déjà pas mal de temps de gagné. Pour découvrir le service, cela se passe ici.

A noter, en complément de ce service, l’arrivée probable sur Steam d’un système d’estimation de vitesse d’un jeu basé sur l’analyse de votre machine. Steam pourrait simplement profiter de sa base de données de millions de machines pour comparer votre matériel à celui des autres joueurs de sa plateforme. Cela lui permettrait de déterminer à quelle vitesse tel ou tel titre pourrait être affiché chez vous.

Le nombre d’images par seconde par rapport aux réglages de détails et la définition voulue en fonction du processeur, de la solution graphique et de la mémoire vive embarqués. Ces résultats seraient mis à jour en temps réel avec les mesures télémétriques effectuées sur les ordinateurs des clients volontaires. Et il y a là un enjeu intéressant à suivre car de nombreux jeux ont un développement assez chaotique.

Il arrive que pour leur sortie, l’expérience ne soit pas formidable mais, après quelques patchs techniques, que certains efforts se ressentent. Ainsi un jeu assez mal noté à sa sortie parce que difficile à jouer sur une plateforme commune peut devenir tout à fait jouable au bout d’un mois ou deux. En revenant sur Steam, le joueur pourra ainsi suivre comment se comporte chaque titre dans la durée. Le scénario inverse existe également et un titre qui devient injouable ou qui pousse violemment les composants dans leurs retranchements après une mise à jour pourra être visible sur ces statistiques. Un éventuel changement de pilote matériel sera également assez facilement identifiable.

Pour Valve, l’idée est intéressante car elle permet de dépasser un frein commun à de nombreux joueurs. La peur de ne pas pouvoir profiter du jeu choisi. Si vous ajoutez à cela l’effet d’une note élevée d’un jeu assez ancien soldé qu’un client va redécouvrir comme fluide sur sa nouvelle machine parce qu’il aura mis le titre dans sa liste de souhaits… On comprend assez vite tout l’intérêt du dispositif.

Source : Techpowerup

TopAchat PC-Finder pour choisir sa config en fonction de ses jeux © MiniMachines.net. 2026

Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

7 avril 2026 à 14:18
CNRS, est-ce, esse
Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

Alors que son budget initial pour 2026 prévoyait déjà un déficit de 239 millions d’euros, le CNRS annonce en interne devoir procéder à un tour de vis supplémentaire de 20 millions d’euros, dont une partie sera répercutée sur la dotation aux unités de recherche. Certains projets seraient de ce fait menacés.

Un courrier du PDG du CNRS, Antoine Petit, adressé le 24 mars aux directeurs d’unité et qu’a pu consulter l’AFP, évoque un budget initial 2026 déficitaire de 239 millions d’euros « directement lié à des reprises de subventions mises en œuvre depuis 2024 ».

« La baisse des crédits n’a pas pu épargner la dotation des laboratoires », précise le courrier, qui avance que « le montant cumulé de ces charges représente plus de 500 millions d’euros depuis octobre 2024 », souligne Libé.

Une baisse à rapporter aux 2,9 milliards d’euros de dotation annuelle du principal organisme de recherche français. Il emploie 34 000 agents, dont plus de 10 000 chercheurs, soit le plus grand opérateur de l’État après France Travail, selon le rapport de la Cour des comptes de mars 2025, qui le qualifiait d’« opérateur de recherche unique en son genre, dont l’excellence est universellement reconnue et dont les comptes sont sains ».

Contacté par l’AFP, le ministère de l’Enseignement supérieur et de la Recherche évalue quant à lui à « 120 millions d’euros » le montant des charges non compensées « sur la période 2024 - 2026 ».

Une baisse de 5 % du financement du CNRS aux laboratoires

Le CNRS confirme de son côté à l’AFP que « jusqu’à présent le CNRS avait trouvé des marges de manœuvres permettant de ne pas répercuter la contrainte budgétaire sur les moyens financiers alloués aux laboratoires, mais c’est désormais malheureusement impossible ».

Matignon aurait en effet demandé au CNRS de procéder à un tour de vis supplémentaire sur son budget initial, du fait de perspectives budgétaires « particulièrement contraintes ».

« Dans ce contexte, le cabinet du Premier ministre a demandé au CNRS de présenter un budget rectificatif incluant une diminution des prévisions de dépenses de 20 M€ afin de conserver une trésorerie non fléchée de quelques dizaines de millions d’euros en fin d’exercice 2026 », écrit le PDG dans son courrier du 24 mars, reproduit par le syndicat SNCS-FSU.

Antoine Petit souligne qu’il a été fait le choix de « préserver le scénario quinquennal 2023 - 2027 des recrutements annuels par concours (270 chercheurs et 360 ingénieurs et techniciens) prévus dans le cadre de la loi de la programmation de la recherche ».

Dans une précédente déclaration, le syndicat soulignait qu’au total, « 20 millions d’euros d’économies sont imputés au fonctionnement, équipement et investissement : 13,5 millions d’euros sont pris aux laboratoires, soit une baisse de 5 % du financement du CNRS aux laboratoires, et 6,5 millions d’euros sont économisés sur des investissements en immobilier ».

« Le budget rectificatif n°1 inscrit à l’ordre du jour du CA du 13 mars nous est parvenu la veille vers 15 h » s’insurge une déclaration intersyndicale. Elle évoque un comportement « inadmissible » découlant « de choix politiques qui ne font aucun cas du CNRS et de ses personnels et [impactant] l’avenir de notre organisme », et affirme que « nos tutelles veulent imposer une austérité encore plus drastique au CNRS » :

« Le sous-financement chronique de la recherche publique française conduit au déclassement du pays par rapport à ses homologues européens et internationaux. »

« Un niveau historiquement bas depuis 1980 »

Le SNCS-FSU « dénonce avec la plus grande fermeté ce budget dangereusement déficitaire, catastrophique pour le CNRS et la recherche publique en France », à mesure que « ce budget du CNRS porte la masse salariale sur subvention d’État à 91 % de cette subvention, ce qui rend impossible toute mesure d’économie sans atteindre les activités de recherche du CNRS » : « Ce budget 2026 marque un tournant majeur avec une nouvelle étape dramatique dans les reniements des gouvernements successifs de ces vingt dernières années envers la recherche publique. »

Le syndicat avance que l’État « n’a jamais respecté l’engagement européen qu’il avait pris d’investir, dès 2010, 3 % du produit intérieur brut (PIB) pour la recherche et développement (R&D), dont 1 % du PIB pour la recherche publique ».

Il « a été insincère avec la Loi de programmation de la recherche de 2020 (LPR) » qui, plutôt que de rattraper le retard et d’atteindre 1 % du PIB pour la recherche publique, « a ramené son budget à un niveau historiquement bas depuis 1980, à savoir 0,74 % du PIB en 2023 », un pourcentage qui « sera encore plus faible cette année » :

« Alors qu’une accélération de la programmation budgétaire de la LPR est indispensable, c’est le contraire qui est programmé par le gouvernement pour la deuxième année consécutive. Ce budget devrait encore participer à l’érosion de l’emploi scientifique pérenne sur subvention d’État et donc à la chute d’attractivité du CNRS et à l’affaiblissement de notre établissement. »

« À la fin de l’année, il n’y aura plus de réserve »

« Cette année, pour la première fois, une partie des crédits de fonctionnement nous a été donnée avec l’argent des ressources propres, c’est-à-dire la réserve budgétaire », explique à l’AFP Vincent Artero, directeur du Laboratoire de Chimie et Biologie des Métaux : « On comprend qu’il n’y avait pas assez de subventions d’État pour nous donner ce qu’ils nous donnaient d’habitude. On prend sur nos réserves. Mais à la fin de l’année, il n’y aura plus de réserve. »

« Nous avons des remontées très inquiètes en particulier de nos collègues en sciences humaines et sociales », précise à l’AFP Fabrice Kordon, coprésident de l’Assemblée des directeurs de laboratoires.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère »

Au point que quelques directeurs envisagent l’arrêt de certains projets à compter d’octobre. « Les recherches les plus impactées directement sont celles qui vont être les plus dépendantes des équipements », explique à l’AFP Matthieu Refregiers, au nom du Comité des directeurs de laboratoires CNRS d’Orléans.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère. Quelqu’un passe et dit : Vous êtes sûr que vous l’avez perdue là ? Non, je l’ai perdue là-bas. Mais alors pourquoi vous cherchez ici ? Parce qu’ici, il y a de la lumière : ça, c’est la science selon nos politiques, trop sensibles aux effets de mode », ironise Fabrice Kordon.

Une situation qui, résume l’AFP, oblige les laboratoires à se concurrencer pour trouver des financements, les rapprochant du modèle anglo-saxon, et privilégiant les recherches qui sont dans l’actualité.

« Un même chercheur, deux fois plus de résultats, pour un coût perçu constant », résume une note interne consacrée à des travaux exploratoires sur l’optimisation des ressources humaines, qui précise que les implications éthiques seront examinées « dans un second temps, si nécessaire », relève la CFDT Recherche EPST.

Concrètement, les équipes de recherche vont en outre devoir rendre une partie de l’argent déjà versé pour leur année 2026, un revers « inédit », souligne Libé.

Nota bene relatif au sous-titre : l’esse est un crochet de boucherie en forme de S, destiné à suspendre les carcasses.

❌