Vue normale

Quoi de neuf à la rédac’ de Next ? L’arrivée d’un nouveau journaliste !

8 avril 2026 à 15:47
« +1 » + « +1 », ça fait déjà +2 !
Quoi de neuf à la rédac’ de Next ? L’arrivée d’un nouveau journaliste !

Trois ans après le rachat de Next par moji, le site et l’équipe continuent de se renforcer ! Une nouvelle plume rejoint la rédaction. Nous sommes désormais huit à vous proposer des contenus sur Next.

+ 1 dans la rédac’

Vous faisiez quoi le 23 mars à 19h17 ? Ferd, en toute détente, annonçait du nouveau à venir sur Next avec une « bonne surprise ». Ne feignez donc pas la surprise ce matin de voir une nouvelle plume – Mickaël Bazoge – signer des articles sur Next. Bonne nouvelle, il rejoint Next à temps plein à partir de cette semaine. Pour commencer, bienvenue !

Mickaël… ce prénom vous parle ? Rien d’étonnant, il a passé quelques années chez MacG puis chez 01Net (groupe Keleops) ; cela fait une vingtaine d’années qu’il parle de la tech, sous toutes ses formes. Sur Next, il couvrira une large variété de sujets dans la lignée de ce que nous faisons déjà… avec, selon l’humeur du chef, une pointe d’actualité autour du monde des jeux vidéo. Vous pouvez retrouver ses actus sur sa page profil.

Mickaël est basé à Montréal (au Canada, pas la petite commune dans l’Aude), il est donc en décalage de six heures par rapport à nous (son matin est notre après-midi) ; c’est pratique pour suivre les annonces aux États-Unis ! Comme l’ensemble de la rédac’, il est en télétravail.

+ 2 en deux ans avec l’arrivée d’Alex

L’équipe se renforce donc encore une fois. Depuis le rachat (et le sauvetage) de Next par moji, la rédaction a donc gagné deux journalistes : Alexandre Laurent arrivé durant l’été 2024 et maintenant Mickaël Bazoge. Tous les deux viennent en renfort de Jean-Marc Manach, Martin Clavey, Mathilde Saliou, Vincent Hermann et moi-même… sans oublier l’indécrottable Flock (en vacances cette semaine, pas de chronique samedi, mais celle de la semaine dernière compte double). Vincent est pour le moment en arrêt prolongé, et on lui souhaite de nous rejoindre dès que possible !

C’est un pari sur l’avenir car Next n’est pas (encore) à l’équilibre au niveau de ses comptes. Renforcer l’équipe et vous proposer toujours plus de contenus nous semble par contre indéniablement la bonne voie pour satisfaire nos abonnés et en recruter de nouveaux. Pour rappel, les abonnements – 8 euros par mois, ou 80 euros par an – sont notre seule source de revenus.

Next n’a aucune publication, aucun lien affilié ni aucun contenu sponsorisé depuis son rachat, pour l’ensemble de nos lecteurs. Pire, Next vous fait un cadeau avec votre abonnement : 1 To de stockage S3, en France, géré par moji, voire encore plus pour ceux qui disposent d’un compte depuis plusieurs années.

Quoi de neuf dans le reste de la rédac’ ?

Mathilde continue de nous proposer des épisodes de podcast, à écouter sans modération. Dernier en date, le numéro six d’entre la chaise et le clavier, avec « ce que l’IA fait à la traduction avec En chair et en os ». Ce soir, le 7ᵉ épisode parle de vulgarisation avec Pierre Kerner et Adrien Perrard. Tous les épisodes sont à retrouver sur cette page (vous pouvez aussi vous abonner au feed RSS du podcast).

Alexandre continue de travailler sur le projet de La Presse Libre v2.0, entre deux actualités sur des levées de fonds, des entrées en bourse et des chantiers de datacenters.

Jean-Marc nous en apprend tous les jours sur les fakes news alimentées par IA… saviez-vous par exemple qu’il était « interdit d’ouvrir ses fenêtres » ? Nous non plus… Reste que la liste des sites d’info générés par IA flaggués par notre extension vient aussi de franchir le cap des 12 300 sites GenAI !

Martin, pendant ce temps, décortique les annonces autour des intelligences artificielles, notamment sur son utilisation en chimie, sans oublier un retour d’expérience passionnant sur le passage d’une ville aux logiciels libres dès 2021.

Quant à moi, entre les opérations de fouilles archéologiques dans la GavCave et la publication d’une carte interactive sur les emails de plus de 36 000 mairies françaises, je vous propose des tutos sur les VPS et notamment, point très important, comment les sécuriser. Une autre carte interactive sur le vaste monde numérique est en train d’être finalisée, on en reparle rapidement.

Sur le site, de nombreuses améliorations ont été apportées, mais je vais laisser la primeur de ces infos à un futur Poing Dev qui ne saurait tarder.

☕️ Chrome passe (enfin) aux onglets verticaux et au mode lecture en pleine page

8 avril 2026 à 15:36


Après l’introduction de la vue partagée, Google vient de publier une mise à jour de Chrome (version 147) qui permet au navigateur de se mettre au niveau de la concurrence sur deux aspects : la gestion des onglets verticaux, et le mode lecture.

Les onglets verticaux sont particulièrement utiles sur les écrans larges (type 21:9 et autres formats dits ultrawide) puisqu’ils permettent d’afficher une portion plus importante du titre de la page ouverte, facilitant ainsi la navigation ou la recherche d’un onglet précis.

Promis de longue date par Google, les onglets verticaux n’étaient jusqu’ici accessibles qu’après une activation manuelle au niveau du menu des fonctionnalités expérimentales. Ils sont désormais en cours de déploiement pour tous les utilisateurs. L’option correspondante est censée apparaître au clic droit sur la barre d’onglets.

Chrome se met enfin à la page avec des onglets verticaux officiellement pris en charge – capture d’écran Next

La vue verticale dispose d’un mode réduit qui permet de n’afficher que le favicon des différents sites ouverts pour garder un accès direct aux onglets tout en augmentant la surface d’affichage utile. Elle propose logiquement, elle aussi, de créer des groupes d’onglets et d’organiser ces derniers par nom ou par étiquettes de couleur.

Une bonne nouvelle n’arrivant jamais seule, Google profite de l’occasion pour introduire un mode lecture plein écran. Jusqu’ici, l’option correspondante offrait en effet une vue simplifiée de la page en cours (expurgée des éléments graphiques et contextuels) mais uniquement sous forme d’écran partagé. Une façon, pour le moteur de recherche, de préserver le fondement de son modèle économique, puisque le mode lecture fait disparaître la plupart des publicités.

À gauche, l’ancien mode lecture, à droite le mode plein écran introduit par Chrome 147 – captures d’écran Next

Présenté comme « plus immersif », ce mode lecture dispense des options de réglage de la taille de la police, de l’interligne, ou de la couleur de fond, ainsi qu’un mode de lecture vocale (text to speech). Il est par ailleurs présenté comme compatible avec les lecteurs d’écran.

Ces deux options, annoncées par un billet de blog, sont censées être disponibles chez tous les utilisateurs, mais comme toujours, le déploiement se fait de façon échelonnée. Si l’une ou l’autre de ces options n’est pas activée chez vous, rendez-vous dans le menu des fonctionnalités expérimentales via ces deux liens :

[Tuto] Utiliser des IA génératives en local et influence du GPU sur les performances

8 avril 2026 à 13:53
Tout ça pour… ça ?
[Tuto] Utiliser des IA génératives en local et influence du GPU sur les performances

Installer des grands modèles de langage sur un ordinateur, c’est facile. Les utiliser via un chatbot aussi, à condition d’avoir suffisamment de puissance et de mémoire disponibles. Voici un tuto pour en profiter chez vous en local, avec un rapide comparatif de performances entre un serveur avec 24 cœurs CPU et un autre avec un GPU. Les gains sont énormes.

Les intelligences artificielles génératives, on les connaît principalement via ChatGPT, Claude et autres Le Chat. C’est-à-dire via les chatbots proposés en ligne par les géants du secteur que sont OpenAI, Anthropic et le français Mistral.

Utiliser une IA générative en ligne, c’est accepter d’envoyer ses données…

Derrière, tournent de grands modèles de langage (LLM) avec, pêle-mêle, GPT, Claude Opus/Sonnet/Haiku, Mistral Large/Small, etc. Les requêtes sont envoyées en ligne, l’inférence se fait sur les serveurs des entreprises qui ont développé les LLMs et la réponse est ensuite retournée à votre machine.

Dans ce genre de cas, il faut accepter le fait que vos données sortent de votre ordinateur et se retrouvent en ligne, sur les serveurs d’autres sociétés. Ces données peuvent aussi servir à entrainer et/ou améliorer des modèles. En résumé, pour la confidentialité, on repassera. Il existe depuis longtemps une alternative : utiliser des IA génératives en local.

…mais c’est aussi possible en local, sans connexion Internet

Il est possible de les faire tourner sur des CPU seulement, mais avoir en plus un GPU permet de grandement accélérer les calculs.

Nous avons déjà détaillé dans un Nextquick pourquoi les cartes graphiques sont autrement plus performantes que les CPU dans ce genre de situation. La réponse tient en un mot : matrice. Pour rappel, une simple requête à ChatGPT et c’est déjà des centaines de milliards de calculs pour avoir une réponse.

Quand il s’agit de faire tourner des IA génératives en local, un autre paramètre à considérer est la quantité de mémoire disponible. En effet, il faut charger les poids et paramètres du modèle en mémoire vive… et cela commence rapidement à chiffrer quand on parle de milliards de paramètres, voire des dizaines ou des centaines de milliards de paramètres.


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Anthropic dévoile Mythos, son modèle d’IA chasseur de failles… réservé à certains

8 avril 2026 à 13:13
Anthropic entrouvre la boîte de Pandore
Anthropic dévoile Mythos, son modèle d’IA chasseur de failles… réservé à certains

Après plusieurs semaines de rumeurs, Anthropic a levé le voile sur Mythos, son nouveau modèle d’IA présenté comme ultra-puissant sur la cybersécurité, mais aussi ultra-verrouillé dans son usage puisque seule une poignée d’élus peuvent en profiter. Pas question (pour le moment ?) de le rendre accessible au grand public.

Mythos n’est plus mytho. Après la fuite d’un billet de blog aux faux airs de coup de com’, Anthropic a fini par officialiser Claude Mythos, sous la forme du projet Glasswing. L’annonce intervient alors qu’Anthropic fait face à une autre fuite – sur Claude Code cette fois-ci –, provenant encore d’une « erreur humaine » et qui alimente de nouveau les gros titres.

Du Mythos à la réalité, avec des partenaires triés sur le volet

Ce nouveau modèle IA, qui se veut plus finaud qu’Opus (le modèle jusqu’alors le plus puissant au catalogue de la start-up) a suscité pas mal de fantasmes : ses capacités poseraient une menace pour la sécurité en ligne, de l’aveu même d’Anthropic. Ce n’est pas la première fois que l’entreprise joue des coudes pour mettre en avant son modèle.

Le Mythos du jour serait tout simplement « trop puissant » pour une diffusion publique. Quoi qu’il en soit, l’entreprise a laissé planer le doute, trop heureuse sûrement de rouler des mécaniques, alors que l’introduction en bourse se profile à l’horizon et que la guerre avec OpenAI fait rage.

L’entreprise a donc fini par dévoiler son plan de match et surprise : il n’est pas question de laisser Mythos entre les mains de n’importe qui. Elle a préféré lancer une nouvelle initiative qui permettra aux heureux élus de sécuriser leurs logiciels grâce au nouveau modèle.

AWS (Amazon Web Services), Apple, Google, la fondation Linux, Microsoft, NVIDIA, Cisco, Broadcom et d’autres encore ont accès à un aperçu de Mythos au sein du « projet Glasswing », en référence aux papillons avec des « ailes de verre ».


Il reste 78% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Bitcoin : une nouvelle enquête affirme révéler l’identité de Satoshi Nakamoto

8 avril 2026 à 11:01


Serait-ce enfin l’épilogue ? Dix-sept ans après la publication du fameux livre blanc signé Satoshi Nakamoto et l’essor du phénomène bitcoin, deux journalistes du New York Times affirment être en mesure de certifier l’identité réelle de son créateur. D’après leur longue enquête, tous les éléments convergent vers Adam Back, un cryptographe d’origine britannique âgé de 55 ans.

Pour mettre un nom sur l’un des hommes les plus recherchés au monde, John Carreyrou et Dylan Freedman ont notamment passé au crible les archives de la célèbre mailing list Cypherpunks dont les échanges, inscrits dans le courant de pensée éponyme, ont participé à la création des cryptoactifs en général et de bitcoin en particulier.

Au cours de leurs travaux, les deux journalistes estiment avoir mis au jour des similitudes troublantes entre les échanges signés par Adam Back et ceux attribués à Satoshi Nakamoto. Le premier aurait d’ailleurs disparu quand le second a fait son entrée sur le devant de la scène, avant que le mouvement inverse ne s’opère. En 2011, Nakamoto s’est en effet soudainement tu. Six semaines après sa disparition, Adam Back s’est ensuite exprimé pour la première fois publiquement sur le bitcoin.

Adam Back a démenti mercredi être le créateur de bitcoin – capture d’écran

John Carreyrou, célèbre pour avoir déclenché l’affaire Theranos quand il écrivait encore au Wall Stret Journal exhume quelques déclarations ambivalentes, et souligne comment les travaux préliminaires d’Adam Back ouvraient la voie au bitcoin. L’intéressé a en effet conçu et développé, dès 1997, un système de preuve de travail baptisé Hashcash, initialement pensé pour la lutte contre le spam, et repris ultérieurement dans l’univers bitcoin. Carreyrou retrace également le parcours de Back depuis le lancement de bitcoin, et s’interroge notamment sur les raisons de son installation à Malte, à partir de 2009.

Le gros de l’enquête réside toutefois sur des mécaniques d’analyse du discours assistée par ordinateur, qui mettent en lumière des expressions idiomatiques, des tics de langage, des constructions rhétoriques et des idées que l’on retrouve aussi bien dans les propos signés Adam Back que dans ceux attribués à Satoshi Nakamoto.

L’analyse finale est même purement quantitative : les deux auteurs indiquent avoir créé un corpus regroupant des messages émanant de 620 candidats potentiels à la paternité de bitcoin, et passé cet inventaire au crible des écrits de Nakamoto. Dans le lot, le seul à cocher toutes les cases, de la façon d’écrire email à l’emploi de tournures britanniques plutôt qu’américaines, s’est révélé Adam Black.

Dont acte ? L’intéressé a réagi mercredi 8 avril sur les réseaux sociaux.

« Je ne suis pas Satoshi, mais j’ai été parmi les premiers à me concentrer sur les implications sociétales positives de la cryptographie, de la confidentialité en ligne et de la monnaie électronique, d’où mon intérêt actif, à partir de 1992 environ, pour la recherche appliquée sur la monnaie électronique et les technologies de confidentialité sur la liste de diffusion des cypherpunks, ce qui a conduit à Hashcash et à d’autres idées ».

D’après lui, les liens sémantiques établis par Carreyrou relèveraient de la coïncidence, et d’une proximité de pensée entre des passionnés partageant des centres d’intérêt commun. Et le secret qui entoure la création de bitcoin mériterait d’être défendu : « Je ne sais pas non plus qui est Satoshi, et je pense que c’est une bonne chose pour le bitcoin, car cela contribue à ce qu’il soit perçu comme une nouvelle classe d’actifs, une matière première numérique mathématiquement rare ».

En attendant l’éventuelle transaction réalisée depuis le premier portefeuille en bitcoin de la chaîne, qui ferait sans doute office de preuve irréfutable, le mystère de l’identité de Satoshi Nakamoto n’a donc probablement pas fini de susciter enquêtes et controverses.

Quand des réseaux d’images non consenties à caractère sexuel pullulent sur Telegram

8 avril 2026 à 10:01
Very Large Harassment Channels
Quand des réseaux d’images non consenties à caractère sexuel pullulent sur Telegram

Dans un rapport intitulé « Le harcèlement comme infrastructure », AI Forensics analyse la manière dont Telegram est utilisé comme lieu de dépôt et d’échange de contenus non consentis à caractère sexuel par des milliers d’internautes espagnols et italiens. Pour l’ONG, l’Union européenne devrait notamment faire du réseau social une très grande plateforme au sens du règlement sur les services numériques pour la soumettre à de plus fortes obligations.

Mise à jour 12:44 : ajout de la réponse détaillée de Telegram.

Des groupes de plusieurs dizaines de milliers de personnes, des contenus à caractère sexuel diffusés, voire produits sans consentement, et échangés contre monétisation, des abonnements mensuels pour accéder à une variété de contenus au milieu desquels se logent du matériel représentant des agressions sexuelles sur mineurs (child sexual abuse material, CSAM), des représentations d’incestes ou de viols…

Tel est le vaste écosystème qui prolifère sur Telegram, que les internautes utilisent comme dépôt pour des contenus obtenus ailleurs, que ce soit sur des comptes TikTok, Instagram, ou dans des conversations privées tenues sur les plateformes de Meta (WhatsApp inclus). Reddit est une autre plateforme importante de ce réseau, le plus souvent utilisée pour diffuser les invitations qui mèneront aux canaux Telegram en question.

En s’appuyant sur la collecte de 2,8 millions de messages collectés dans 16 groupes et canaux Telegram différents sur une période de six semaines, l’ONG AI Forensics publie ce 8 avril une étude de l’ « écosystème d’agression largement automatisé » qui se déploie dans au moins deux aires géographiques : l’Italie et l’Espagne.

Pour ses autrices et auteurs, menés par la sociologue Silvia Semenzin et le directeur de recherche d’AI Forensics Salvatore Romano, cette continuité d’une plateforme à l’autre appelle à une approche « plus holistique » que ce qui existe pour le moment dans la lutte contre les agressions sexuelles par images (IBSA, image-based sexual abuse).

Dizaines de milliers de contenus non consentis à caractère sexuel

Concrètement, les auteurs du rapport ont repéré 24 571 comptes actifs ayant diffusé au moins un message violent pendant la période observée, intégrés dans des groupes dont l’audimat peut grimper à 25 000 membres en Espagne, voire 27 000 en Italie.

Loin de rester dans une seule zone géographique, les autrices de l’étude constatent que 72 % des contenus espagnols sont aussi disponibles dans les groupes italiens. Au total, 8 % de tous les médias analysés sont disponibles dans les deux zones étudiées.


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Arnaques cyber : aux USA, 3 fois plus de plaintes en 10 ans, mais 20 fois plus de pertes

8 avril 2026 à 09:05
The Internet Is For Pwned
Arnaques cyber : aux USA, 3 fois plus de plaintes en 10 ans, mais 20 fois plus de pertes

Chez les plus de 60 ans, qui totalisent le plus grand nombre de plaintes, et les pertes les plus importantes, le nombre de plaintes pour phishing et spoofing (y compris téléphonique et par SMS) a été multiplié par 16 en seulement deux ans, et les pertes multipliées par 25. Dans le même temps, le nombre total de plaintes pour harcèlement ou stalking a doublé, et même triplé pour ce qui est des menaces de violences physiques.

« À nos débuts, nous recevions quelques milliers de plaintes par mois. Nous recevons désormais en moyenne près de 3 000 plaintes par jour », résume le rapport annuel 2025 (.pdf) de l’Internet Crime Complaint Center (IC3) du FBI, qui a fêté ses 25 ans l’an passé.

Le nombre de plaintes enregistrées par le FBI en matière de cybercriminalité a été multiplié par trois en 15 ans, passant d’environ 300 000 par an jusqu’en 2017 à plus d’un million en 2025. Les montants des pertes estimées ont, dans le même temps, été multipliés par 20, passant de un milliard à près de 21 milliards de dollars. La progression est de 26 % entre 2024 et 2025.

Comme nous l’avions rapporté les années passées, les plus de 60 ans sont le segment de la population le plus affecté, recensant près de deux fois plus de plaintes, et 14 fois plus de pertes, que les 20 - 29 ans.

Le nombre de plaignants de plus de 60 ans a doublé en cinq ans

Alors que le nombre de plaignants de plus de 60 ans était d’environ 100 000 par an entre 2020 et 2023, il était passé à 150 000 en 2024, et a dépassé les 200 000 en 2025.

Si le nombre de plaignants de plus de 60 ans a crû de 37 % en un an, le montant de leurs pertes a explosé de + 59 %, pour un total de 7,75 milliards de dollars (contre 5 milliards en 2024, et 3 milliards en 2023), soit 38 500 dollars en moyenne. 12 444 plaignants ont par ailleurs déclaré des préjudices supérieurs à 100 000 dollars.

Alors que l’on pourrait penser que le problème est bien connu, le nombre de plaintes pour phishing et spoofing (y compris téléphonique et par SMS) a été multiplié par 16 sur cette même population, passant de moins de 3 000 en 2023 à plus de 23 000 en 2024, et près de 50 000 en 2025.

Les pertes associées ont quant à elles été multipliées par 25, passant de 3,3 millions de dollars en 2023 à plus de 20 millions en 2024, et plus de 77 millions en 2025. Le nombre de plaintes relatives à de faux investissements, et les pertes associées, s’est pour sa part contenté de tripler.

L’IC3 consacre un second focus aux arnaques aux cryptoactifs, dont les plus de 60 ans constituent là aussi les principales victimes. Alors que l’IC3 enregistrait environ 30 000 plaintes entre 2018 et 2021, elles sont passées à près de 75 000 en 2023, ont été multipliées par deux en 2024 (150 000) pour dépasser les 175 000 en 2025 (+ 21 % par rapport à 2024).


Il reste 48% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI

8 avril 2026 à 08:13
Sam, celui qui conduit c’est celui qui…
Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI

Il se passe toujours quelque chose chez OpenAI, à tel point que la start-up se donne parfois des allures de poulet sans tête. Pas très rassurant à quelques encablures d’une introduction en Bourse.

Les derniers jours ont été particulièrement turbulents chez OpenAI. En toute fin de semaine dernière, l’entreprise a ainsi annoncé une réorganisation de grande ampleur suite au congé maladie de Fidji Simo, « CEO des applications » et numéro 2 de la start-up, derrière Sam Altman.

En 2019, la Franco-Américaine a été diagnostiquée du syndrome de tachycardie orthostatique posturale. « Il est désormais clair que je suis allée un peu trop loin et que je dois vraiment essayer de nouvelles approches pour stabiliser ma santé », a-t-elle expliqué dans un mémo à ses équipes.

Retrait surprise de la numéro 2 d’OpenAI

Embauchée par le créateur de ChatGPT en mai 2025, elle occupait un poste complètement inédit au sein du groupe : directrice générale en charge des applications. L’ancienne vice-présidente de Facebook, devenue par la suite CEO d’Instacart, a poussé une stratégie de recentrage d’OpenAI et de ses précieuses ressources vers la génération de code et les services aux entreprises afin de mieux concurrencer Anthropic. La fermeture de Sora, le générateur de vidéos IA, et la suspension du développement du « mode adulte » de ChatGPT, participent à cette réorientation.

Fidji Simo voudrait aussi créer une « superapp » regroupant ChatGPT, Codex et le navigateur Atlas. En son absence forcée, ce projet ira-t-il à son terme ? Il est en tout cas entre les mains de Greg Bockman, le président d’OpenAI, qui prend cette superapp sous son aile. Brad Lightcap, le directeur des opérations, s’occupera des « projets spéciaux ». Fidji Simo était montée au créneau il y a encore quelques jours seulement pour expliquer le rachat de la chaîne tech TBPN (Technology Business Programming Network) par OpenAI.

Dans la foulée, la directrice marketing Kate Rouch a décidé de se retirer temporairement pour se consacrer à son rétablissement après un cancer. Elle occupait ce poste depuis un an et demi. Elle assurera la transition avec son remplaçant et « espère revenir dans un rôle différent à l’avenir si [sa] santé le lui permet ».

L’ombre de l’IPO

Ce bouleversement dans l’organigramme tombe à un moment délicat pour OpenAI, qui vient de boucler un tour de table à hauteur de 122 milliards de dollars, et qui s’apprêterait à se lancer à Wall Street cette année… Du moins si la direction de l’entreprise parvient à s’entendre sur cette question !

Le site The Information rapporte en effet les frictions entre la directrice financière Sarah Friar et le grand patron Sam Altman concernant le calendrier de l’introduction en bourse (IPO). Les procédures à mettre en place, le travail encore à accomplir en matière d’organisation, et les risques liés aux engagements de dépenses (notamment pour les équipements en serveurs) pourraient mettre à mal l’opération en 2026.

Bizarrement, la directrice financière relevait depuis août dernier non pas du directeur général Sam Altman, comme c’est généralement l’usage, mais… de Fidji Simo, qui vient donc de partir en congé maladie. Un vrai sac de nœuds !

Sur le strict plan financier, OpenAI aurait aussi prévenu les investisseurs que la marge brute réalisée en 2025 était inférieure aux prévisions. Elle a été grignotée par l’achat en urgence de capacités de calcul supplémentaires pour faire face à une demande plus forte que prévu. Sarah Friar s’inquiéterait également de la croissance des revenus, qui tournerait au ralenti.

Sam Altman se fait (encore) tirer le portrait

Le tableau ne serait pas complet sans le portrait de Sam Altman publié ce week-end par The New Yorker. À travers de nombreux témoignages et mémos internes, il dépeint un dirigeant habile, obsédé par la gagne, et qui entretiendrait un rapport, disons, très souple à la vérité.

Sam Altman en prend pour son grade. « Tu dois comprendre que Sam ne peut jamais être digne de confiance […] C’est un sociopathe. Il ferait n’importe quoi », aurait affirmé Aaron Swartz, informaticien, militant politique et hacktiviste américain qui s’est suicidé en janvier 2013. Le terme sociopathe a été utilisé spontanément par d’autres personnes, notamment du conseil d’administration d’OpenAI, expliquent nos confrères.

« Il n’a que faire de la vérité » et n’hésiterait pas à « déformer, trafiquer, renégocier et renier des accords », selon une source. Il posséderait, selon une autre source de chez Microsoft citée par nos confrères, deux traits de caractère que l’on ne retrouve généralement pas chez une seule personne : « un fort désir de plaire aux autres, d’être apprécié dans toutes ses interactions [et] un manque de préoccupation, presque sociopathique, des conséquences que pourrait entraîner le fait de duper quelqu’un ».

L’année dernière, Sam Altman était déjà au cœur de l’attention des médias avec les « OpenAI Files », une collection de documents regroupant de nombreux témoignages, notamment d’anciens employés de l’entreprise. Le portrait n’était pas flatteur. Des cadres supérieurs des trois entreprises qu’il a dirigées ont tenté de le démettre de ses fonctions. Son comportement chez Y Combinator aurait été qualifié de « trompeur et chaotique », avec en plus des accusations d’absentéisme et de course à l’enrichissement personnel. Il aurait menti et cherché à semer la zizanie dans le conseil d’administration… n’en jetez plus.

Le dévoilement de ces coulisses et la réorganisation de la direction au plus haut niveau pourraient-ils faire capoter l’IPO d’OpenAI ? Sans doute pas, les intérêts sont trop élevés, d’autant qu’Anthropic aussi se joint à la fête avec la volonté d’une entrée en bourse cette année. Mais ces remous confirment à tout le moins qu’au-delà de la figure publique de Sam Altman, la gouvernance de l’entreprise reste fragile.

USA : les chantiers de datacenters butent sur un double mur énergétique

8 avril 2026 à 07:18
Un seul être vous manque, et tout est dépeuplé
USA : les chantiers de datacenters butent sur un double mur énergétique

Entre 30 et 50 % des projets de datacenters attendus pour 2026 aux États-Unis devraient enregistrer des retards. Outre la difficulté à sécuriser les accès à l’énergie nécessaires à leur alimentation, ce ralentissement de la construction serait principalement dû aux délais nécessaires pour l’approvisionnement en équipements dédiés à la production ou à la transformation d’énergie.

N’en déplaise à Donald Trump, la souveraineté industrielle ne se décrète pas, et les faramineux plans d’investissement programmés dans les datacenters aux États-Unis risquent de bientôt incarner très directement cette problématique. Dans une enquête datée du 1er avril, Bloomberg décrit en effet comment plusieurs grands chantiers de construction se heurtent à une problématique d’approvisionnement en composants électriques.

Le principal goulot d’étranglement ne se situerait donc pas au niveau des puces dédiées à l’IA, de la mémoire vive, ou des équipements réseau, mais à l’étage d’en dessous : celui des équipements nécessaires à l’électrification d’un centre de données. D’un point de vue financier, ces derniers représentent généralement moins de 10 % du coût global d’un datacenter, remarque Bloomberg. Ils n’en sont pas moins indispensables au bon fonctionnement de l’ensemble. Or, la demande semble nettement dépasser l’offre.

Les projets en matière de création de datacenters mobilisent en effet des enveloppes record : d’après une analyse de Bridgewater Associates réalisée fin février, les dépenses d’investissement en infrastructures programmées par Google, Amazon, Meta et Microsoft totaliseraient en effet la bagatelle de 650 milliards de dollars. Et si ces projets ont en partie vocation à servir les besoins d’acteurs spécialisés comme OpenAI ou Anthropic, ils ne couvrent pas la totalité du marché, puisque d’autres acteurs spécialisés (Oracle, Equinix, Coreweave, etc.) prévoient eux aussi la construction de nouveaux centres de données.

Des plans d’investissement en forme de vaporware ?

Les chiffres sont tellement monumentaux qu’ils soulèvent en premier lieu la question de la fourniture d’énergie associée, particulièrement dans certaines régions des États-Unis où le réseau électrique n’est pas dimensionné pour accueillir de telles infrastructures.

En réponse, les géants du numérique travaillent d’ailleurs à sécuriser leurs besoins à venir via des achats en direct, à l’image de Meta qui déclarait en début d’année avoir réservé 6,6 GW d’énergie fournie par des réacteurs nucléaires dont la construction ne s’achèvera qu’à horizon 2035.

De plus en plus, ils deviennent aussi leurs propres fournisseurs d’énergie. Sur ce volet, l’exemple le plus emblématique est sans doute celui de xAI, l’entreprise d’Elon Musk, dont la récente levée de fonds de 20 milliards de dollars a notamment vocation à financer l’achat de nouvelles turbines à gaz. Ces cinq nouvelles machines, représentant une puissance cumulée de 2 GW, viendraient compléter un parc installé déjà conséquent, dont la construction et les niveaux d’émission dépassent largement la réglementation locale en vigueur.

Cette problématique du raccordement à un réseau alimenté en conséquence entraine déjà un lot important de retards, d’après la partie accessible au public (enregistrement par email requis) d’un rapport signé d’un cabinet spécialisé, Sightline Climate, dont Bloomberg tire les éléments chiffrés de son enquête.


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Votre PC tient-il la route ? Steam pourrait donner la réponse avec une estimation des FPS

8 avril 2026 à 06:46


Quel joueur ne s’est pas réveillé en pleine nuit, de la sueur glacée perlant à grosses gouttes sur le visage et dans le dos, en se demandant si tel jeu allait tourner correctement sur son PC ? Il faut dire que les outils à leur disposition sont limités : ils peuvent toujours se référer aux configurations recommandées par l’éditeur, mais souvent cela revient à croiser les doigts dans l’espoir que tout tourne au mieux !

Steam pourrait bien leur faciliter la vie. La dernière bêta du client de la boutique contient des références à un « estimateur de framerate » qui fonctionnerait de la manière suivante : soit en renseignant la configuration matérielle du PC (CPU, GPU, RAM), soit en laissant le logiciel fouiller tout seul pour obtenir ces informations.

© dex3108

Après avoir sélectionné un jeu, Steam serait en mesure de retourner une estimation du nombre d’images par seconde que l’on devrait obtenir sur sa machine. Sur PC, la boutique Xbox offre un outil assez proche, mais elle se contente de dire comment tel jeu fonctionnera sur l’ordinateur, en restant vague. Sur Steam, il s’agira d’obtenir une donnée chiffrée.

Depuis le mois de février, le client Steam en bêta invite tous ceux qui laissent un avis sur la page d’un jeu à inclure automatiquement les caractéristiques matérielles de leur machine. Ils peuvent également autoriser la collecte de données (anonymisées) sur la fréquence d’images. C’est aussi le cas depuis la mise à jour de la version stable de SteamOS pour le Steam Deck qui remonte au 9 mars.

Valve précise que la fonction « est actuellement en version bêta et se concentre sur les appareils fonctionnant sous SteamOS », mais comme on le voit l’éditeur semble voir plus large que les seuls appareils de son écosystème. Il est vrai cependant que c’est plus facile de commencer par SteamOS, où le parc matériel se restreint à une poignée de consoles portables. La console de salon Steam Machine est toujours dans les limbes…

Le framerate ne fait pas tout, et on attend de voir si l’outil de Steam inclura des variations de FPS en fonction de la résolution du jeu et des paramètres de qualité sélectionnés. Le principe reste intéressant, ne serait-ce que pour avoir une idée un peu plus claire des performances à attendre. À voir si cette fonctionnalité arrivera en version finale et, si c’est le cas, sous quelle forme elle sera proposée

Y a-t-il trop de Copilot dans l’avion ?

8 avril 2026 à 06:01
L'heure de pointe dans le cockpit
Y a-t-il trop de Copilot dans l’avion ?

Trop de copilotes tuent-ils le Copilot ? C’est la question soulevée par un spécialiste de l’IA qui a dénombré des dizaines de versions différentes de Copilot chez Microsoft. L’éditeur en met partout, à toutes les sauces.

Sorti de Copilot, point de salut chez Microsoft. L’éditeur a la fâcheuse habitude de nommer bizarrement ses logiciels et services ; son IA ne fait pas exception. La course à l’IA générative l’a ainsi poussé à coller l’étiquette Copilot sur un peu tout et n’importe quoi.

Pour le commun des mortels, Copilot évoque un chatbot ou un bouton mystérieux dans une application. Pour Microsoft, c’est une marque à insérer au chausse-pied partout où c’est possible : on travaille dans Microsoft 365 Copilot, avec le mode Copilot du navigateur Edge qui affiche GitHub Copilot, le tout, bien sûr, sur un PC Copilot+ (dont le clavier comprend… une touche Copilot).

Des Copilot dans tous les sens

Cette boulimie presque incontrôlable a été mesurée par Key Bannerman, spécialiste IA, qui s’est amusé à cartographier les différents Copilot. Il en a compté 78, et deux de plus se sont ajoutés depuis : Gaming Copilot (une IA pour l’aide en jeu sur PC et les consoles Xbox), et Microsoft Dragon Copilot, un assistant IA pour le secteur de la santé. Sans oublier Copilot Health annoncé en mars.

La carte donne le vertige :

© Key Bannerman

Copilot existe sous la forme de chatbots, d’applications de bureau, de plateformes pour les entreprises, d’outils pour développeurs, d’apps dans d’autres apps, dans des logiciels professionnels ou encore dans le matériel (la fameuse touche Copilot des Copilot+PC). Il existe même un Microsoft Copilot Studio pour créer d’autres Copilot !

Pour Key Bannerman, chaque équipe en interne doit prouver « qu’elle fait partie de l’histoire de l’IA », au risque sinon de se dissoudre dans le grand rien. Renommer tout et n’importe quoi Copilot ne serait qu’« un instinct de survie ».

L’IA générative a allumé la mèche d’une course à l’échalote entre les grands noms de la tech. Google aussi a tendance à apposer l’étiquette Gemini un peu partout. Mais, chez Microsoft, l’inflation de Copilot donne surtout l’impression que personne n’est au manche de l’avion — ou plutôt si : 80 copilotes.

De l’IA au chausse-pied

Reste à savoir à quoi sert tout ce petit monde. Un changement discret, réalisé en octobre dans les conditions d’utilisation de Copilot, a rebondi sur les réseaux sociaux ces derniers jours. Microsoft y explique — en gras et bien visible — que « Copilot est uniquement destiné à des fins de divertissement […] Ne vous fiez pas à Copilot pour obtenir des conseils importants. » Un message qui contraste avec le discours de l’entreprise, promouvant une IA « utile » pour les utilisateurs comme pour les entreprises.

Microsoft prévoit toutefois de modifier prochainement les termes et conditions de Copilot. « La formulation “à des fins de divertissement” est un héritage de l’époque où Copilot a été lancé comme un service d’accompagnement à la recherche dans Bing », a expliqué un représentant du groupe à PCMag. Une formulation qui ne reflète plus la manière dont l’IA est désormais utilisée. Ça va mieux en le disant.

C’est une manière pour l’éditeur de rappeler que son IA générative peut faire des erreurs. Un message plus ou moins similaire se trouve chez d’autres. Anthropic par exemple rappelle que « Claude est une IA et peut faire des erreurs », de même chez OpenAI avec ChatGPT qui peut aussi « commettre des erreurs ».

Trop de Copilot tue-t-il le Copilot ? Microsoft avait reçu un accueil glacial en fin d’année dernière, lors de la présentation d’une vision d’un Windows « agentique ». À tel point que l’éditeur a annoncé une réduction de la voilure des fonctions IA dans le système d’exploitation.

En mars, lors de l’annonce de changements en profondeur pour Windows 11, Microsoft laissait entendre que les intégrations inutiles de Copilot allaient disparaitre, à commencer par Capture et croquis, Photos, Widgets et Bloc-notes.

Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

7 avril 2026 à 14:18
CNRS, est-ce, esse
Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

Alors que son budget initial pour 2026 prévoyait déjà un déficit de 239 millions d’euros, le CNRS annonce en interne devoir procéder à un tour de vis supplémentaire de 20 millions d’euros, dont une partie sera répercutée sur la dotation aux unités de recherche. Certains projets seraient de ce fait menacés.

Un courrier du PDG du CNRS, Antoine Petit, adressé le 24 mars aux directeurs d’unité et qu’a pu consulter l’AFP, évoque un budget initial 2026 déficitaire de 239 millions d’euros « directement lié à des reprises de subventions mises en œuvre depuis 2024 ».

« La baisse des crédits n’a pas pu épargner la dotation des laboratoires », précise le courrier, qui avance que « le montant cumulé de ces charges représente plus de 500 millions d’euros depuis octobre 2024 », souligne Libé.

Une baisse à rapporter aux 2,9 milliards d’euros de dotation annuelle du principal organisme de recherche français. Il emploie 34 000 agents, dont plus de 10 000 chercheurs, soit le plus grand opérateur de l’État après France Travail, selon le rapport de la Cour des comptes de mars 2025, qui le qualifiait d’« opérateur de recherche unique en son genre, dont l’excellence est universellement reconnue et dont les comptes sont sains ».

Contacté par l’AFP, le ministère de l’Enseignement supérieur et de la Recherche évalue quant à lui à « 120 millions d’euros » le montant des charges non compensées « sur la période 2024 - 2026 ».

Une baisse de 5 % du financement du CNRS aux laboratoires

Le CNRS confirme de son côté à l’AFP que « jusqu’à présent le CNRS avait trouvé des marges de manœuvres permettant de ne pas répercuter la contrainte budgétaire sur les moyens financiers alloués aux laboratoires, mais c’est désormais malheureusement impossible ».

Matignon aurait en effet demandé au CNRS de procéder à un tour de vis supplémentaire sur son budget initial, du fait de perspectives budgétaires « particulièrement contraintes ».

« Dans ce contexte, le cabinet du Premier ministre a demandé au CNRS de présenter un budget rectificatif incluant une diminution des prévisions de dépenses de 20 M€ afin de conserver une trésorerie non fléchée de quelques dizaines de millions d’euros en fin d’exercice 2026 », écrit le PDG dans son courrier du 24 mars, reproduit par le syndicat SNCS-FSU.

Antoine Petit souligne qu’il a été fait le choix de « préserver le scénario quinquennal 2023 - 2027 des recrutements annuels par concours (270 chercheurs et 360 ingénieurs et techniciens) prévus dans le cadre de la loi de la programmation de la recherche ».

Dans une précédente déclaration, le syndicat soulignait qu’au total, « 20 millions d’euros d’économies sont imputés au fonctionnement, équipement et investissement : 13,5 millions d’euros sont pris aux laboratoires, soit une baisse de 5 % du financement du CNRS aux laboratoires, et 6,5 millions d’euros sont économisés sur des investissements en immobilier ».

« Le budget rectificatif n°1 inscrit à l’ordre du jour du CA du 13 mars nous est parvenu la veille vers 15 h » s’insurge une déclaration intersyndicale. Elle évoque un comportement « inadmissible » découlant « de choix politiques qui ne font aucun cas du CNRS et de ses personnels et [impactant] l’avenir de notre organisme », et affirme que « nos tutelles veulent imposer une austérité encore plus drastique au CNRS » :

« Le sous-financement chronique de la recherche publique française conduit au déclassement du pays par rapport à ses homologues européens et internationaux. »

« Un niveau historiquement bas depuis 1980 »

Le SNCS-FSU « dénonce avec la plus grande fermeté ce budget dangereusement déficitaire, catastrophique pour le CNRS et la recherche publique en France », à mesure que « ce budget du CNRS porte la masse salariale sur subvention d’État à 91 % de cette subvention, ce qui rend impossible toute mesure d’économie sans atteindre les activités de recherche du CNRS » : « Ce budget 2026 marque un tournant majeur avec une nouvelle étape dramatique dans les reniements des gouvernements successifs de ces vingt dernières années envers la recherche publique. »

Le syndicat avance que l’État « n’a jamais respecté l’engagement européen qu’il avait pris d’investir, dès 2010, 3 % du produit intérieur brut (PIB) pour la recherche et développement (R&D), dont 1 % du PIB pour la recherche publique ».

Il « a été insincère avec la Loi de programmation de la recherche de 2020 (LPR) » qui, plutôt que de rattraper le retard et d’atteindre 1 % du PIB pour la recherche publique, « a ramené son budget à un niveau historiquement bas depuis 1980, à savoir 0,74 % du PIB en 2023 », un pourcentage qui « sera encore plus faible cette année » :

« Alors qu’une accélération de la programmation budgétaire de la LPR est indispensable, c’est le contraire qui est programmé par le gouvernement pour la deuxième année consécutive. Ce budget devrait encore participer à l’érosion de l’emploi scientifique pérenne sur subvention d’État et donc à la chute d’attractivité du CNRS et à l’affaiblissement de notre établissement. »

« À la fin de l’année, il n’y aura plus de réserve »

« Cette année, pour la première fois, une partie des crédits de fonctionnement nous a été donnée avec l’argent des ressources propres, c’est-à-dire la réserve budgétaire », explique à l’AFP Vincent Artero, directeur du Laboratoire de Chimie et Biologie des Métaux : « On comprend qu’il n’y avait pas assez de subventions d’État pour nous donner ce qu’ils nous donnaient d’habitude. On prend sur nos réserves. Mais à la fin de l’année, il n’y aura plus de réserve. »

« Nous avons des remontées très inquiètes en particulier de nos collègues en sciences humaines et sociales », précise à l’AFP Fabrice Kordon, coprésident de l’Assemblée des directeurs de laboratoires.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère »

Au point que quelques directeurs envisagent l’arrêt de certains projets à compter d’octobre. « Les recherches les plus impactées directement sont celles qui vont être les plus dépendantes des équipements », explique à l’AFP Matthieu Refregiers, au nom du Comité des directeurs de laboratoires CNRS d’Orléans.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère. Quelqu’un passe et dit : Vous êtes sûr que vous l’avez perdue là ? Non, je l’ai perdue là-bas. Mais alors pourquoi vous cherchez ici ? Parce qu’ici, il y a de la lumière : ça, c’est la science selon nos politiques, trop sensibles aux effets de mode », ironise Fabrice Kordon.

Une situation qui, résume l’AFP, oblige les laboratoires à se concurrencer pour trouver des financements, les rapprochant du modèle anglo-saxon, et privilégiant les recherches qui sont dans l’actualité.

« Un même chercheur, deux fois plus de résultats, pour un coût perçu constant », résume une note interne consacrée à des travaux exploratoires sur l’optimisation des ressources humaines, qui précise que les implications éthiques seront examinées « dans un second temps, si nécessaire », relève la CFDT Recherche EPST.

Concrètement, les équipes de recherche vont en outre devoir rendre une partie de l’argent déjà versé pour leur année 2026, un revers « inédit », souligne Libé.

Nota bene relatif au sous-titre : l’esse est un crochet de boucherie en forme de S, destiné à suspendre les carcasses.

Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

7 avril 2026 à 12:37
J’ai ma IA en local
Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

Juste avant le week-end prolongé de Pâques, Google a lancé son nouveau modèle Gemma 4, en open source avec une licence relativement permissive : Apache 2.0. Il est proposé en quatre variantes, de 2,3 à 30,7 milliards de paramètres ; de quoi tourner sur une large gamme de terminaux.

C’est une annonce importante dans le monde des grands modèles de langage open source (y compris les poids) : Gemma 4 de Google (DeepMind). Ce n’est pas la première fois qu’un modèle open source sous licence Apache 2.0 est publié, mais c’est un mouvement intéressant de Google dans le secteur.

De 2,3 à 30,7 milliards de paramètres, avec une « mixture »

Quatre modèles Gemma 4 sont disponibles : E2B, E4B, 26B A4B et 31B. Ils proposent respectivement 2,3, 4,5 , 25,2 et 30,7 milliards de paramètres. A4B est un modèle Mixture of Experts (MoE) avec seulement 3,8 milliards de paramètres actifs pour chaque token.

Ils sont multimodaux, c’est-à-dire qu’ils « traitent les entrées de texte et d’image (l’audio est pris en charge sur les petits modèles) et génèrent des sorties de texte ».

Un MoE est un grand modèle dont seulement une partie est utilisée en inférence, réduisant les besoins en puissance de calcul. Afin de distinguer facilement les modèles, Google utilise une nomenclature spéciale au début du nom en fonction du nombre de paramètres : E pour effectifs, A pour actifs.

Les deux petits modèles de 2,3 et 4,5 milliards de paramètres ont une largeur de contexte de 128 000 jetons, contre 256 000 pour les deux autres. Gemma 4 dispose d‘un « mode de raisonnement intégré qui permet au modèle de réfléchir étape par étape avant de répondre ». La taille du dictionnaire est de 262 000 mots.

Il est capable d’analyser des images et des vidéos, propose une prise « en charge native de l’utilisation structurée des outils, permettant des workflows d’agent » et, c’est dans l’air du temps, la « génération, complétion et correction de code ». E2B et E4B disposent aussi d’une fonction de reconnaissance vocale.

Tous les détails se trouvent par ici. Google propose aussi des résultats de benchmarks maison et compare ses quatre modèles Gemma 4 à la version 27B (27 milliards de paramètres, sans raisonnement) de Gemma 3. Cette annonce intervient au moment même ou Anthropic a décidé de revoir sa gestion des comptes payants, avec le passage obligatoire via l’API pour les applications tierces.

Gemma 4 en open source passe sous licence Apache 2.0

Google propose ses modèles sous la licence Apache 2.0. Comme le rappelle Wikipédia, elle est « considérée comme permissive car elle accorde des droits étendus aux utilisateurs, tout en imposant relativement peu de restrictions […] D’autoriser la modification et la distribution du code sous toute forme (libre ou propriétaire, gratuit ou commercial) et, d’autre part, d’obliger le maintien du copyright lors de toute modification ».

Pour ses précédents modèles, Google utilisait une licence maison baptisée « Gemma Terms of Use ». Elle précise notamment « que Google se réserve le droit de restreindre l’utilisation de tout service Gemma que Google estime raisonnablement être en violation du présent accord ».

Google rejoint ainsi Mistral et son modèle 7B (septembre 2023), OpenAI avec gpt-oss-120b, ainsi que Qwen d’Alibaba, qui sont sous licence Apache 2.0. Avec ses modèles LLaM, Meta propose une « licence limitée », avec des restrictions.

Google met largement en avant le côté open source de Gemma 4 : « les modèles ouverts sont des systèmes d’IA dont les poids du modèle sont publiquement disponibles pour que n’importe qui puisse les télécharger, les étudier, les affiner et les utiliser sur son propre matériel (téléphones, ordinateurs, etc.) ». Un des avantages des modèles ouverts est en effet de pouvoir les faire tourner en local sur votre ordinateur, sans envoyer aucune donnée en ligne.

En fonction de la précision, la taille occupée en mémoire pour les modèles varie de 3,2 à près de 60 Go, laissant en effet entrevoir une large gamme d’appareils compatibles. Nous reviendrons prochainement avec quelques tutos pour installer des IA génératives en local.

☕️ Un Alsacien arrêté pour avoir évoqué le meurtre d’agents du renseignement à une IA

7 avril 2026 à 09:01


Après avoir évoqué son intention d’acheter une arme pour « tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI » au cours d’une discussion avec un outil d’intelligence artificielle, un Strasbourgeois de 37 ans s’est vu arrêté, chez lui, ce 3 avril.

Des enquêteurs du FBI, aux États-Unis, ont repéré le message et l’ont transmis à la plateforme française de signalement de contenu illicite Pharos, rapportent Les Dernières Nouvelles d’Alsace, puis le Raid est intervenu et a interpellé le suspect. Aucune arme n’a été retrouvée chez lui.

Suivi pour antécédents psychiatriques, il a en revanche été hospitalisé.

Illustration : Flock

Aux États-Unis, le recours à l’IA à des fins de surveillance de masse par les autorités fait largement débat, notamment depuis l’ultimatum imposé à Anthropic pour que l’entreprise lève les quelques restrictions d’usage de ses outils.

Comme l’entreprise a maintenu son refus de voir ses outils utilisés pour de la « surveillance intérieure de masse » (et pas pour de la surveillance extérieure) et des « armes complètement autonomes », le Pentagone s’est tourné vers son concurrent OpenAI.

Au Canada, après la tuerie de Tumbler-Ridge, OpenAI s’était retrouvé sous le feu des critiques pour ne pas avoir transmis aux autorités des informations relatives à Jesse Van Rootselaar. Si le compte de la tireuse avait été suspendu, la teneur de ses échanges avec ChatGPT n’avaient pas été relayés par l’entreprise, quand bien même ils décrivaient des scénarios de violence armée.

Les principaux modèles indiquent par ailleurs se tourner vers les forces de l’ordre en cas de nécessité. OpenAI précise par exemple dans ses spécifications de modèles recourir « à une surveillance automatisée pour détecter d’éventuelles violations de nos conditions d’utilisation » et, après examen par un humain, « saisir les autorités judiciaires dans les cas présentant une menace imminente de préjudice physique grave ou d’autres risques sérieux pour la sécurité publique ».

☕️ Dans sa lutte contre Epic, Apple se tourne de nouveau vers la Cour suprême

7 avril 2026 à 08:45


Il y a trois ans, Apple s’était tourné vers la Cour suprême (la plus haute juridiction des États-Unis) dans son différend avec Epic sur la commission de 30 % de son App Store. Quelques mois plus tard, elle bottait en touche en refusant d’intervenir, sans donner plus d’explication.

Ce n’était pas la fin de la guerre entre les deux entreprises, loin de là. Dernier événement en date, Apple a perdu en grande partie son appel contre Epic fin 2025, mais gardait tout de même la possibilité de faire payer des commissions « raisonnables » sur les paiements externes. Apple avait demandé au tribunal de revoir sa décision, mais les juges ont refusé à l’unanimité (pdf).

Comme le rapporte Engadget, Apple se tourne désormais vers la Cour suprême (pdf) pour lui demander « d’examiner quand et comment elle peut percevoir des commissions sur les achats mobiles effectués via des systèmes de paiement tiers ». L’entreprise demande aussi à la cour d’appel de suspendre sa décision, le temps que la Cour suprême se prononce.

portrait de Tim Cook façon Steve Jobs
Illustration : Flock

La 9ᵉ cour d’appel a cette fois-ci accepté la demande d’Apple et Epic voit rouge. Le père de Fortnite demande au tribunal de « réexaminer la décision d’aujourd’hui accordant la requête d’Apple pour suspendre l’exécution de la décision ».

« L’effort d’Apple pour suspendre l’exécution de la décision de cette Cour ne vise rien d’autre que gagner du temps », affirme Epic. Pour l’entreprise, cela « permet à Apple de continuer d’engranger des profits ». Dans ce climat tendu, ajoute Epic, « la plupart des développeurs réagissent à l’incertitude en s’abstenant » de proposer des alternatives.

Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

7 avril 2026 à 08:13
Phallometrics
Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

Anthropic, éditeur des modèles Claude, a annoncé dimanche un accord d’approvisionnement auprès de Google et de Broadcom destiné à renforcer ses infrastructures de calcul, principalement aux États-Unis. L’entreprise a dans le même temps affirmé avoir atteint 30 milliards de dollars de chiffre d’affaires projeté sur un an, contre 9 milliards de dollars en décembre dernier. Elle serait donc passée devant OpenAI.

Anthropic a profité du week-end de Pâques pour lâcher sa petite bombe à destination des marchés financiers et des investisseurs : au détour d’une communication relative à un nouvel accord pluriannuel avec Google et Broadcom, l’éditeur des modèles Claude a déclaré avoir atteint un volume d’activité suffisant pour pouvoir se projeter sur un chiffre d’affaires annualisé supérieur à 30 milliards de dollars.

Le montant annoncé témoigne d’une croissance aux allures d’exponentielle : Anthropic évoquait en effet une projection de chiffre d’affaires annuel de l’ordre de 9 milliards de dollars en décembre 2025. L’activité aurait donc été multipliée par plus de trois en seulement un trimestre.

« Lors de l’annonce de notre levée de fonds en série G en février, nous avions indiqué que plus de 500 entreprises clientes dépensaient chacune plus d’un million de dollars par an. Aujourd’hui, ce nombre dépasse les 1 000, soit le double en moins de deux mois », ajoute Anthropic. Annoncée le 12 février dernier, cette série G (septième tour de financement depuis l’amorçage) avait permis à l’entreprise de lever 30 milliards de dollars sur la base d’une valorisation de 380 milliards de dollars.

Un chiffre d’affaires annualisé supérieur à celui d’OpenAI ?

Si l’annonce d’Anthropic marque les esprits, c’est aussi et surtout parce que le chiffre d’affaires annuel projeté dépasse, pour la première fois, les indicateurs du grand concurrent OpenAI.

La firme dirigée par Sam Altman se montre généralement plutôt avare en matière de données financières, mais elle vient en effet elle aussi de donner une projection récente. Le 31 mars dernier, elle affirmait ainsi réaliser 2 milliards de chiffre d’affaires par mois, à l’occasion d’un point d’étape sur sa dernière levée de fonds en cours (au montant record de 122 milliards de dollars).

2 * 12, 24 milliards : le rythme actuel de chiffre d’affaires d’OpenAI révèle bien une projection inférieure aux chiffres avancés par son compétiteur.

Arithmétique floue

Dans cette bataille de chiffres superlatifs, il convient toutefois de noter que l’indicateur retenu par Anthropic est particulièrement flou. Dario Amodei et ses équipes parlent d’un run rate supérieur à 30 milliards de dollars par an. Or ce run rate est une extrapolation : on prend le chiffre d’affaires à un instant T, sur la période qui nous arrange, et on le multiplie par la constante nécessaire pour arriver à une projection sur douze mois.

Dit autrement, Anthropic pourrait avoir réalisé une particulièrement bonne journée le 5 avril, et décidé de multiplier ce chiffre d’affaires par 365 pour afficher, sans mentir, une projection annualisée très optimiste.

En face, OpenAI laisse entendre qu’il y a dans ses propres revenus une base de récurrence plus stable. « À la fin de 2024, nous générions 1 milliard de dollars par trimestre. Nous générons désormais 2 milliards de dollars de revenus par mois », écrivait l’entreprise dans son billet du 31 mars.

Du point de vue de l’utilisateur final, cette course à qui a le plus gros chiffre d’affaires n’a sans doute que peu d’intérêt, et l’on sera sans doute nettement plus sensible aux limitations que vient de mettre en place Anthropic autour des abonnements Claude pour encourager le recours aux API facturées au token.

La trajectoire du chiffre d’affaires, réelle ou projetée, intéresse en revanche vivement les investisseurs, soucieux de savoir si et quand OpenAI ou Claude pourront atteindre un volume d’activités suffisant pour compenser leurs faramineuses dépenses d’investissement. Le sujet est d’autant plus critique qu’on prête aux deux fondateurs, Dario Amodei et Sam Altman, l’intention d’introduire leur entreprise en bourse.

Anthropic renforce ses liens avec Google et Broadcom

En attendant, Anthropic revendique des liens consolidés avec les grands acteurs susceptibles de répondre à ses besoins en matière de calcul. L’entreprise indique en effet avoir signé de nouveaux accords avec Google et Broadcom, portant sur l’approvisionnement en TPU (puces dédiées à l’inférence IA) de nouvelle génération à compter de 2027. Elle ne donne aucun chiffre sur les sommes en jeu, la nature exacte de ces puces, ou l’éventuelle puissance électrique qui pourrait leur être nécessaire.

« La grande majorité des nouveaux serveurs seront situés aux États-Unis, ce qui fait de ce partenariat un élargissement majeur de notre engagement pris en novembre 2025 d’investir 50 milliards de dollars dans le renforcement de l’infrastructure informatique américaine », précise tout de même Anthropic. En octobre dernier, la société évoquait l’utilisation d’un million de TPU fournis par Google, principalement via l’offre cloud du géant de la recherche.

« Claude reste le seul modèle d’IA de pointe disponible pour les clients sur les trois plus grandes plateformes cloud du monde : Amazon Web Services (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry) », fait valoir Anthropic. Là encore, l’accent est mis sur un élément susceptible de rassurer les marchés. Dans un contexte d’incertitudes quant à la réalité des investissements promis en matière de datacenters, accentué par les conséquences de la guerre en Iran, la société fait valoir qu’elle est en mesure de s’appuyer sur les trois principaux hyperscalers du marché, quand OpenAI doit ménager les susceptibilités entre son actionnaire historique, Microsoft, et le principal participant à son dernier tour de table, Amazon.

☕️ Ventoy fête ses six ans et corrige un bug avec les distributions Linux immuables

7 avril 2026 à 07:32


C’est en effet le 5 avril 2020 que la première version de Ventoy a été mise en ligne, rapidement suivie d’une 1.0.01 pour corriger un vilain bug. Nous en parlions la même année avec la mise en ligne de la version 1.0.22. C’est pour rappel un outil permettant de créer des clés USB multi-ISO bootable, concurrent de Rufus.

La version 1.1.11 a été mise en ligne le 5 avril 2026 et signe donc le sixième anniversaire de l’application. Dans les notes de version, pas grand chose d’autre que des correctifs et autres améliorations, en plus de la prise en charge de KylinSecOS.

Un point important tout de même pour Ventoy2Disk.sh dont l’installation échouait « sur les distributions Linux immuables » : c’est désormais corrigé. Il s’agit de systèmes « où les fichiers principaux du système d’exploitation sont en lecture seule, empêchant ainsi les modifications involontaires ou malveillantes », explique Neowin. C’est le cas de Fedora Silverblue et openSUSE MicroOS, ajoutent nos confrères.

Pour télécharger Ventoy, c’est par ici.

Anthropic change ses règles du jeu, des applications tierces aux limites des sessions

7 avril 2026 à 07:02
Faire moins ou payer plus
Anthropic change ses règles du jeu, des applications tierces aux limites des sessions

Durant le week-end, Anthropic a annoncé et déployé quasiment dans la foulée un changement important de son modèle économique : les services tiers ne sont plus intégrés aux abonnements Claude, il faut passer par l’API. Cela a des conséquences importantes pour les clients, notamment ceux qui se sont lancés sur OpenClaw.

Anthropic propose une formule gratuite permettant d’accéder à son IA générative Claude, avec d’importantes restrictions d’usage. Pour débloquer les fonctionnalités supplémentaires et augmenter le temps d’utilisation, il faut passer à la caisse avec un abonnement Pro ou Max pour les particuliers, Team ou Enterprise pour les pros.

Une autre possibilité est d’utiliser l’API, avec une facturation à l’usage. Cela varie de 1 et 5 dollars par million de jetons en entrée et en production (les réponses) pour le modèle léger Haiku, à respectivement 5 et 25 dollars pour le modèle le plus performant, Opus.

Anthropic impose son API pour les applications tierces : OpenClaw en ligne de mire

Jusqu’à présent, les abonnements permettaient d’utiliser Claude dans les applications tierces, dans la limite des restrictions mises en place, évidemment. Désormais, ce n’est plus le cas.

Le changement a été annoncé samedi par Boris Cherny, responsable de Claude Code chez Anthropic, avec une mise en place prévue pour le lendemain : « Les abonnements Claude ne couvriront plus l’utilisation d’outils tiers comme OpenClaw […] La capacité est une ressource que nous gérons avec soin et nous donnons la priorité à nos clients utilisant nos produits et notre API ».

Pour faire passer la pilule et « offrir » la première dose, le responsable ajoute que les « abonnés reçoivent un crédit équivalent au coût de leur abonnement mensuel ». Les clients ont reçu pendant le week-end un email pour réclamer leur « cadeau ».

Dans le message envoyé aux abonnés, une « remarque importante » confirme la déclaration précédente, avec une mise en place le jour même : « À compter du 4 avril, les outils tiers comme OpenClaw connectés à votre compte Claude seront facturés comme une consommation supplémentaire et non plus via votre abonnement ».

OpenClaw est directement cité dans la communication d’Anthropic. Il s’agit, pour rappel, d’un agent IA qui a défrayé la chronique au début de l’année. Son créateur, Peter Steinberger, a rejoint OpenAI mi-février, « pour piloter la prochaine génération d’agents personnels ».

Il s’est exprimé sur X suite à ce changement de politique qu’il trouve « triste pour l’écosystème ». Il annonce au passage que la dernière version d’OpenClaw inclut des « correctifs pour une meilleure utilisation du cache, afin de réduire les coûts pour les utilisateurs de l’API ».

« Demande croissante sur Claude » : Anthropic modifie ses conditions d’usage

Ce n’est pas le seul changement de ces dernières semaines : « Pour répondre à la demande croissante sur Claude, nous ajustons nos limites des sessions de 5 h pour les abonnements gratuits, Pro et Max pendant les heures de pointe. Vos limites hebdomadaires restent inchangées. En semaine entre 5 h et 11 h PT, ainsi qu’entre 13 h et 19 h GMT, vous épuisez vos limites de session de 5 heures plus rapidement qu’auparavant », explique un responsable de Claude Code sur X.

« Nous avons réalisé de nombreux gains d’efficacité pour compenser cela, mais environ 7 % des utilisateurs atteindront des limites de session qu’ils n’auraient pas atteintes auparavant, en particulier pour les niveaux pro. Si vous exécutez des tâches en arrière-plan gourmandes en tokens, les décaler aux heures creuses étendra davantage vos limites de session », explique-t-il. La grogne des clients s’est rapidement faite entendre dans les réponses à cette publication.

Comme le rapporte Le Figaro, une publication Reddit a mis le feu aux poudre le mois dernier. Un internaute affirme avoir trouvé des bugs dans la mémoire cache de l’IA qui « multiplient par 10 à 20 vos consommations ».

Anthropic a annoncé enquêter et, le 2 avril, Lydia Hallie (développeuse Claude Code) a pris la parole sur X : « Les limites en heure de pointe sont plus strictes […] c’est en grande partie ce que vous ressentez. Nous avons corrigé quelques bugs en cours de route, mais aucun ne vous facturait excessivement ».

Elle donne quelques conseils. Elle propose d’utiliser Sonnet 4.6, qui est « le choix par défaut le plus performant sur Pro. Opus consomme [les tokens] environ deux fois plus vite ». Elle recommande aussi de « commencer une nouvelle session plutôt que de reprendre de grandes sessions qui ont été inactives ~1 h », et enfin de limiter votre fenêtre de contexte. Là encore, les clients font part de leur mécontentement en guise de réponse.

C’est aussi un moyen pour Anthropic de pousser ses clients sur une offre plus chère s’ils veulent continuer d’utiliser Claude plus ou moins comme avant. Pour rappel, la formule Pro est à 15 euros par mois, mais le palier du dessus est à 90 euros minimum par mois pour Max. Il y a également l’API avec un paiement à l’usage.

Fuite de Claude Code et de Mythos

Ces derniers jours, Anthropic était au cœur des gros titres de la presse, pour deux raisons. La première concerne la fuite d’une partie du code de Claude Code justement. Si le modèle en lui-même n’est pas publié (le cerveau de Claude Code), le squelette, ses muscles et articulations sont désormais accessibles à tout le monde.

Peu de temps avant, plus de 3 000 documents avaient « fuité » avec un nouveau modèle baptisé Mythos. Il se place au-dessus d’Opus, le modèle actuellement le plus performant d’Anthropic… et donc plus couteux à faire tourner.

#Flock : Ils sont parmi nous

Par : Flock
4 avril 2026 à 11:37
I don’t want to live on this planet anymore
#Flock : Ils sont parmi nous

En mars, le nom de domaine aliens.gov est enregistré par l’administration américaine. JD Vance dit vouloir se pencher sur la question. La lune est de nouveau pointée du doigt. Je ne dis pas qu’il y a un alignement des planètes, mais je pense qu’on ne nous dit pas tout : pas besoin ceci dit, puisque ça crève les yeux…

Ma rubrique se fera enlever par des aliens la semaine prochaine, mais elle devrait voyager paranormalement jusqu’à la suivante. Gros doigt lumineux bienveillant sur vous, à très vite !


Il reste 75% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Au CNRS, un chiffrement « inviolable » à base d’ADN

3 avril 2026 à 14:08
aHR0cHM6Ly93d3cueW91dHViZS 5jb20vd2F0Y2g/dj1kUXc0dzlXZ1hjUQ==
Au CNRS, un chiffrement « inviolable » à base d’ADN

L’ADN peut générer de longues chaines de données aléatoires, ce qui est parfait pour créer de grands masques jetables pour chiffrer des données, avec une protection « inviolable ». Le CNRS présente ses travaux, qui mélangent ADN et chiffre de Vernam.

Dans un précédent article, nous étions revenus sur les méthodes de chiffrement en informatique des dernières décennies. Nous avons également analysé la menace quantique ainsi que le chiffrement hybride qui mélange les deux mondes. Au milieu de tout cela, il existe depuis plus de 100 ans un algorithme de chiffrement inviolable : le masque jetable ou chiffre de Vernam.

Juste des permutations… mais sur chaque caractère

Le principe de base est simple : il s’agit ni plus ni moins d’une permutation de l’alphabet, mais avec une clé aussi longue que le message à chiffrer. Il faut par contre respecter une condition : la clé (ou masque) ne doit être utilisé qu’une seule fois et elle doit être totalement aléatoire (et ce n’est pas si facile de faire du 100 % aléatoire).

Avec une clé de la taille du message et une rotation aléatoire de l’alphabet à chaque lettre, un message de 10 caractères pourrait être transformé en n’importe quel mot (ou groupe de mots) de 10 caractères, sans savoir lequel est le bon.

Imaginez avec un message chiffré plus court, par exemple ABC, il pourrait aussi bien s’agir de OUI, que NON, DIX, TES, ZUT… sans pouvoir trouver le message en clair si vous n’avez pas la bonne clé. On parle de sécurité inconditionnelle, « c’est-à-dire indépendante de la puissance de calcul d’un adversaire », et on peut le prouver dans le cas présent.

Avec l’ADN, de très grandes clés aléatoires

Le problème du chiffre de Vernam est double : d’abord, générer des clés de très grandes tailles et aléatoires, puis échanger physiquement les clés. Dans le premier cas, le CNRS propose une solution : l’ADN : « Chaque molécule d’ADN est composée de quatre bases chimiques (A, T, C et G), et les chimistes sont capables de synthétiser commercialement de longues chaines dont l’ordre des bases est statistiquement aléatoire. Ces séquences d’ADN peuvent ensuite être copiées à l’identique, à l’aide de processus enzymatiques, et ainsi partagées entre un expéditeur et un destinataire ».

L’ADN coche toutes les cases avec une densité de stockage et une stabilité remarquables  : « correctement conservé, le polymère peut rester intact pendant des milliers d’années et il suffit de quelques milligrammes pour stocker des exaoctets d‘information binaire, soit l’équivalent d’un million de disques durs ». Stocker autant de données dans aussi peu de place avec un autre système c’est actuellement… compliqué.

Des candidats parfaits pour les masques, mais il faut toujours les échanger sans la moindre interception, sinon toute la sécurité s’effondre si une tierce partie récupère une copie des clés. L’avantage de l’ADN c’est qu’il ne prend pas beaucoup de place et qu’il est facile à transporter.

Pour le CNRS, les principales perspectives se trouvent dans « la protection des communications les plus sensibles, qu’il s’agisse d’échanges diplomatiques, militaires ou scientifiques ». Dans un second temps, cette technique « pourrait également trouver des applications dans des contextes extrêmes, notamment les communications spatiales ou les infrastructures numériques critiques où la fiabilité et l’inviolabilité des échanges constituent des enjeux majeurs ».

❌