Vue normale

Reçu — 9 avril 2026 Next - Articles gratuits

Le plan de l’État pour renforcer la cybersécurité des ministères d’ici la fin de l’année

9 avril 2026 à 14:15
Dans certains cas, il serait temps de s’y mettre…
Le plan de l’État pour renforcer la cybersécurité des ministères d’ici la fin de l’année

Depuis quelques années, les fuites de données s’enchainent à vitesse grand V et les institutions officielles ne sont pas épargnées. Le gouvernement vient de mettre en ligne sa feuille de route des efforts prioritaires en matière de sécurité numérique de l’État. Elle comporte une quarantaine d’actions à mettre en place cette année.

Dès son introduction, le document – validé en concertation interministérielle – revient sur « les multiples intrusions et fuites de données qui ont affecté en 2025 les systèmes d’information des ministères et des établissements dont ils ont la tutelle ». Ces failles et fuites rappellent, s’il en est besoin, « la persistance de vulnérabilités graves dans l’ensemble de ces infrastructures ». Le document du jour vise à y apporter une réponse…

Conseiller numérique obligatoire et anticipation de NIS 2

Premier point du document : renforcer la gouvernance. Chaque ministère devra ainsi désigner un conseiller numérique en charge de la cybersécurité « dans le mois suivant la nomination du ministre »… de quoi éviter des blancs en cas de changements a répétition. Les ministères devront aussi s’assurer que la cybersécurité soit bien prise en compte à tous les niveaux. Avant le 30 juin 2026, ils devront ainsi avoir formalisé « une politique d’audit et de contrôle des systèmes d’information ». La mise en œuvre est programmée pour le 31 décembre 2026.

En vue de NIS 2, qui va bien finir par passer le cap de l’Assemblée nationale un jour ou l’autre, la politique de sécurité des systèmes d’information de l’État devra être mise à jour, au plus tard au premier trimestre 2027, pour « intégrer en anticipation le référentiel de règles ayant vocation à s’appliquer aux entités essentielles que créera NIS 2 ».

Sur l’homologation des systèmes d’information, la feuille de route précise que « tout système faisant l’objet d’une migration sur le cloud devra être considéré comme un nouveau système d’information et donc faire l’objet d’une homologation ». Avec le cloud dominé par des acteurs américains, cela soulève aussi des questions de souveraineté. La qualification SecNumCloud de l’ANSSI permet de s’assurer de l’étanchéité aux lois extraterritoriales (notamment étasuniennes et chinoises), pour rappel.

Supply chain, mise à jour, authentification… rappel des basiques

C’est dans l’air du temps avec les attaques qui se multiplient contre la « supply chain », le document demande aux ministères de mettre en place, d’ici au 30 juin 2026, « une politique de contrôle de la chaîne d’approvisionnement ».

Sur la question des mises à jour, ils devront définir des procédures d’installation des correctifs de sécurité d’ici au 30 juin 2026 et les mettre en œuvre avant la fin de l’année. Il est aussi question de « renforcer l’authentification et la gestion des accès ».

Autre mesure importante (et on pourrait presque dire qu’il est temps) : « Mettre en place d’ici le 31 décembre 2026 une authentification multi-facteur de l’ensemble des administrateurs de systèmes d’information ». Avec la gestion des mises à jour, ce sont des points basiques, qui devraient déjà être en place… mais force est de constater qu’il reste encore du travail. Le détail des manquements détaillé par la CNIL suite à la fuite et condamnation de France Travail par CNIL (5 millions d’euros d’amende) en est une preuve.

La feuille de route prévoit aussi de déployer « des dispositifs avancés de détection des attaques (EDR ou XDR) sur l’ensemble des postes de travail et sur l’ensemble des serveurs » avant la fin de l’année. Les ministères doivent aussi tester au moins une fois par an les plans de reprise d’activité.

Après un incident important (dont la définition reste à préciser), le ministère impacté « aura pour obligation de suivre les recommandations de l’ANSSI, puis 6 mois après l’incident d’adresser un point de suivi à l’ANSSI, au corps d’inspection et au Premier ministre ».

Vincent Strubel, patron de l’ANSSI, rappelait dans son bilan de la cybermenace en 2025 une autre réalité : le facteur humain et le « mode legacy » parfois laissé en place pour calmer la grogne des anciens utilisateurs. Nous avons « probablement devant nous un phénomène de coupure un peu brutale des systèmes un peu obsolescents », affirmait Vincent Strubel.

À surveiller de près : DNS, messageries et quantique

La feuille de route cible ensuite les DNS et messageries, utilisés par les pirates « pour introduire des codes malveillants dans les systèmes d’information » de l’État. Là encore, la feuille de route prévoit une action en deux temps : renforcer avant le 30 septembre 2026 la sécurité des DNS, « notamment par un recours accru au service interministériel DNS », et celle des systèmes de messagerie avant le 31 décembre 2026.

Dernier point, préparer la transition vers la cryptographie post-quantique. Pour rappel, la question n’est pas tant de savoir si un ordinateur quantique capable de casser des systèmes de chiffrement verra le jour, mais quand il sera opérationnel avec suffisamment de qubits.

Il est donc demandé aux ministères de faire cette année l’inventaire « de leurs données durablement sensibles pour lesquelles une mise en place de la cryptographie post-quantique sera prioritaire »… en espérant qu’elles n’aient pas déjà fuité, sinon c’est déjà trop tard.

Ils devront ensuite « déployer de la cryptographie post-quantique pour tous les systèmes d’information traitant d’information à diffusion restreinte avant fin 2030 ». Enfin, à partir de 2030, « ne déployer que des produits de chiffrement qui intègrent de la cryptographie post-quantique ».

L’ANSSI aussi a dévoilé sa feuille de route sur le post quantique, avec deux échéances. À partir de 2027 tout d’abord, l’Agence n’acceptera plus en entrée de qualification des produits de sécurité qui n’intègrent pas une cryptographie résistante à l’ordinateur quantique. Puis, à partir de 2030, « on recommandera et on imposera le cas échéant de ne plus acquérir de telles solutions ».

Quoi qu’il en soit, le « suivi opérationnel de la mise en œuvre de la feuille de route 2026 - 2027 sera assuré chaque mois en Comité interministériel de suivi de la sécurité numérique (CINUS), qui réunit les chaînes de sécurité des systèmes d’information des ministères sous l’égide de l’ANSSI ».

☕️ Keychron publie les plans et les modèles 3D de ses claviers et souris

9 avril 2026 à 13:43


Spécialiste du clavier mécanique, Keychron fait un pas supplémentaire en direction de la communauté des makers avec la publication, sur GitHub, des modèles 3D utilisés dans la fabrication des principales références de son catalogue.

Pour la plupart de ses claviers, on peut ainsi télécharger les fichiers de CAO qui décrivent dans le détail la conception du boîtier, les découpes de la plate (la plaque située entre les commutateurs et le PCB), les spécifications des différents composants, etc.

Modèle 3D du Keychron Q10 – crédit Keychron

Selon les éléments concernés, Keychron propose des formats faisant office de standards industriels, a minima pour la visualisation, avec DXF (.dxf) ou DWG (.dwg) pour les plans, et STEP (.stp) pour la plupart des modèles 3D. Les internautes sont invités à enrichir le dépôt avec leurs propres contributions, qui peuvent prendre la forme de corrections apportées à des modèles existants, ou de configurations alternatives à celles commercialisées par Keychron.

« Nous pensons que la mise à disposition des fichiers matériels de production constitue une contribution significative à la communauté plus large du matériel et des claviers ! », se réjouit l’entreprise. Un élément manque toutefois à l’appel : Keychron ne partage pas le plan des PCB de ses claviers : sur ce volet électronique, les sources restent fermées.

Plan pour les découpes d’une plaque de clavier – crédit Keychron

Notons par ailleurs que si les sources de certains éléments matériels sont ouvertes, Keychron restreint explicitement la réutilisation commerciale : « Tous les fichiers de conception matérielle sont fournis exclusivement pour un usage personnel, éducatif et non commercial ».

Keychron avait déjà par le passé publié certains éléments de conception de ses claviers les plus populaires, mais sans étendre cet effort à l’ensemble de son catalogue comme ici (à l’exception de quelques modèles spécifiques comme son récent clavier céramique). L’entreprise exploite et collabore également de longue date à des firmwares ouverts comme QMK ou ZMK.

S3 Files : Amazon transforme les buckets S3 en système de fichiers

9 avril 2026 à 12:10
S3 Files : aux frontières du stockage, les données sont ailleurs
S3 Files : Amazon transforme les buckets S3 en système de fichiers

Amazon Web Services vient d’annoncer le lancement de S3 Files, « un nouveau système de fichiers qui connecte de manière transparente n’importe quelle ressource de calcul AWS à Amazon Simple Storage Service (S3) ». Cette solution utilise d’autres technologies Amazon (EFS par exemple) et ne fonctionne donc que sur le S3 d’Amazon, pas avec d’autres stockages « S3 compatibles ».

S3 est, pour rappel, du stockage objet lancé par Amazon il y a 20 ans et qui est depuis devenu un standard de fait largement utilisé à travers le monde. Next utilise du S3 par exemple pour le To de stockage offert avec votre abonnement (et plus en fonction de votre ancienneté). S3 a beau être lancé par Amazon, le stockage maison S3 déployé par les hébergeurs sur leur propre infrastructure ne dépend d’aucune manière d’Amazon, qui n’a donc aucun accès aux données.

Revenons au fonctionnement du stockage S3, qui utilise des objets et des buckets. Un objet représente n’importe quel type de donnée (texte, vidéo…) et les objets sont réunis dans des conteneurs appelés buckets. Pour aller plus loin, nous avons pour rappel publié un dossier complet sur l’histoire et le fonctionnement de S3.

Stockage S3 vs système de fichiers : des différences fondamentales

Le fonctionnement du stockage S3 est différent des systèmes de fichiers classiques sur plusieurs points, comme le rappelle Sébastien Stormacq d’AWS dans le billet d’annonce de S3 Files : « Mon analogie préférée était de comparer des objets S3 à des livres dans une bibliothèque (on ne peut pas modifier une page, il faut remplacer tout le livre) alors que des fichiers sur votre ordinateur peuvent être modifiés page par page ». Pour modifier quelques octets dans un objet de 5 Go, il faut réécrire la totalité des données.

Selon l’entreprise, son nouveau service est le premier à « offrir un accès complet et performant à vos données S3 par un système de fichiers ». Les modifications faites sur la version système de fichiers sont automatiquement répercutées dans le bucket S3 (et vice-versa), avec des contrôles sur la synchronisation. S3 Files peut être associé à plusieurs ressources, « permettant le partage de données entre les clusters sans duplication ».

Les buckets S3 sont ainsi accessibles depuis Elastic Compute Cloud (EC2), Container Service (ECS), Kubernetes Service (EKS) et des fonctions AWS Lambda. Dans sa foire aux questions, Amazon précise que seuls les « general purpose buckets » sont compatibles avec S3 Files, pas les Tables, Vectors ou « directory buckets ».

S3 Files surfe sur NFS 4.1 et utilise POSIX

Les objets S3 sont accessibles « sous forme de fichiers et de répertoires, prenant en charge toutes les opérations du Network File System (NFS) v4.1 + telles que la création, la lecture, la mise à jour et la suppression de fichiers ». Amazon ajoute que « S3 Files utilise les permissions POSIX pour les fichiers et les répertoires ».

Ce n’est pas juste une présentation sous la forme d’une arborescence comme peuvent déjà le faire des clients S3, mais un changement plus en profondeur pour avoir un « vrai » système de fichiers, avec la gestion qui va avec. L’accès simultané à des données est géré avec une cohérence NFS close-to-open.

Amazon revendique des performances élevées avec son S3 Files, qui est basé sur Amazon Elastic File System (EFS) avec une latence de l’ordre de la milliseconde pour les données actives, c’est-à-dire celles déjà présentes dans le cache de S3 Files.

La synchronisation peut prendre « quelques minutes »

Attention, par contre à la synchronisation des données avec S3 qui prend du temps, comme l’indique AWS dans son exemple : « Lorsque je fais des mises à jour de mes fichiers dans le système de fichiers, S3 gère et exporte automatiquement toutes les mises à jour sous forme de nouvel objet ou de nouvelle version d’un objet existant dans mon bucket S3 en quelques minutes. Les modifications apportées aux objets du bucket S3 sont visibles dans le système de fichiers en quelques secondes, mais peuvent parfois prendre une minute ou plus ».

S3 Files utilise AWS Identity and Access Management (IAM) pour la gestion des contrôles d’accès et du chiffrement, avec TLS 1.3 lors du transit et un chiffrement au repos via Amazon S3 managed keys (SSE-S3) ou une clé de l’utilisateur avec AWS Key Management Service (KMS). Le billet de blog donne des exemples et des détails techniques. De la documentation est disponible par là.

S3 Files est dès à présent disponible dans toutes les régions AWS. Le service n’est évidemment pas gratuit : « Vous payez pour la portion de données stockée dans votre système de fichiers S3, pour les opérations de lecture de petits fichiers et toutes les opérations d’écriture sur le système de fichiers, ainsi que pour les requêtes S3 lors de la synchronisation des données entre le système de fichiers et le bucket S3 ». Les tarifs sont détaillés sur cette page (en anglais seulement pour le moment).

Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

9 avril 2026 à 10:22
On m'a dit de venir, pas de venir avec des bagages, pourquoi ?
Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

Le Sénat a voté mercredi 8 avril à l’unanimité la proposition de loi visant à instaurer une présomption d’utilisation de contenus culturels protégés par un droit d’auteur au niveau des éditeurs d’IA. Le texte, qui doit maintenant passer à l’Assemblée nationale, inverse donc le rapport de force, puisqu’en cas de contentieux, ce sera aux acteurs de la tech de prouver qu’ils n’ont pas exploité un contenu de façon illicite.

Beaumarchais a une nouvelle fois été convoqué sous les ors de la République mercredi 8 avril, lors des débats du Sénat autour de la proposition de loi « relative à l’instauration d’une présomption d’utilisation des contenus culturels par les fournisseurs d’intelligence artificielle ». Et les défenseurs du droit d’auteur n’ont pas été déçus, puisque l’article unique du texte a été adopté à l’unanimité, au terme d’une séance de débat plutôt consensuelle : le soutien à l’innovation ne doit pas se faire au détriment de la création culturelle et cette dernière doit être rémunérée à sa juste valeur dès lors qu’elle est exploitée.

Inverser la charge de la preuve pour forcer la transparence

Le texte adopté en première lecture dispose que, sauf preuve contraire, une œuvre protégée par un droit d’auteur ou un droit voisin « est présumée avoir été utilisée par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».

Autrement dit, si un ayant droit estime qu’une œuvre a été utilisée par un modèle (par exemple, parce qu’un chatbot est capable de citer des extraits d’un livre), c’est à l’opérateur de l’IA en question qu’il appartiendra de prouver qu’il n’a commis aucune utilisation irrégulière. Le texte instaure donc une inversion de la charge de la preuve, en instaurant une présomption d’exploitation.

« Ce ne sera plus au créateur de prouver le moissonnage de son œuvre, mais au fournisseur d’IA de prouver qu’il ne l’a pas utilisée. Notre objectif n’est pas de multiplier les procès, mais d’inciter les acteurs de l’IA à abandonner certains comportements de prédation pour un modèle fondé sur la transparence et la négociation. Aujourd’hui, les créateurs ne négocient pas ; ils subissent », a fait valoir en séance la sénatrice Agnès Evren (LR), auteure de la proposition de loi.

Elle a par ailleurs pris soin d’affirmer que ce renversement avait été validé par le Conseil d’État, et souligné que l’esprit de la proposition de loi rejoignait les recommandations formulées dans le récent rapport d’Alex Voss voté le 11 mars dernier au Parlement européen. Dans son texte, celui-ci invite en effet Bruxelles à « proposer l’établissement d’une présomption réfragable », mais il restreint cette dernière aux cas de non-respect d’un certain nombre d’obligations de transparence.

Le Sénat français va donc un cran plus loin, arguant du principe que ce renversement est indispensable pour contraindre les éditeurs d’IA à faire preuve d’une vraie transparence sur leurs données d’entraînement. « On nous oppose souvent le secret des affaires, ce bouclier dont les entreprises d’IA usent et abusent. Or si l’algorithme relève du secret industriel, les données pour le nourrir sont le fruit du travail d’autrui. La transparence n’est pas une menace pour l’innovation, c’est la condition de l’acceptabilité sociale de l’IA », a défendu Catherine Morin-Desailly (Union centriste).

Représenté par ses ministres de la Culture et de l’Intelligence artificielle et du numérique, le gouvernement a pour sa part tenu une position plus nuancée.

« Le Gouvernement partage l’objectif du mécanisme proposé par la commission, mais le contentieux ne peut pas constituer notre unique horizon, car il entraîne des risques : judiciarisation excessive, insécurité juridique prolongée, multiplication des procédures. Mieux vaut un bon accord qu’un mauvais procès », a prudemment avancé Catherine Pégard, ministre de la Culture.

Anne Le Hénanff, ministre déléguée chargée de l’intelligence artificielle et du numérique, a quant à elle plus fermement défendu le point de vue des acteurs de la tech :

« Avec une telle présomption, l’entreprise devra apporter la preuve négative de l’utilisation de données culturelles, via l’analyse de dizaines de téraoctets de données ; c’est tout simplement impossible ! Tous les acteurs économiques qui ont développé des modèles d’IA – entreprises du CAC 40, TPE-PME, start-up – risqueraient un contentieux, ce qui serait dévastateur pour notre économie ».

Elle aussi appelle à privilégier la négociation au contentieux, en s’engageant à soutenir « toutes les initiatives contractuelles entre les acteurs de l’IA et ceux de la culture », ainsi qu’à participer aux évolutions à venir du cadre européen, « car c’est en agissant au bon niveau que nous obtiendrons la sécurité juridique nécessaire ».

Négocier, mais autour de quelle table ?

L’attente est-elle entendable du point de vue des ayants droit, alors que les illustrations d’utilisation à grande échelle de contenus protégés se multiplient ? Dans le sillage du procès ouvert aux États-Unis contre Meta pour entraînement de ses modèles sur les contenus de la bibliothèque clandestine LibGen, plusieurs articles de Mediapart ont montré ces derniers mois le recours à des contenus protégés par l’entreprise française Mistral AI.

Plus récemment, une nouvelle enquête, publiée le 6 avril, démontre que des centaines de milliers d’ouvrages ou d’articles scientifiques accompagnés de la mention « tous droits réservés » figurent dans l’immense jeu de données finepdfs hébergé sur Hugging Face.

Au-delà de sa dimension contentieuse, la proposition de loi serait, dans ce contexte et pour ses promoteurs, un accélérateur visant à sortir du statu quo dont profitent les acteurs de l’IA.

« Il y a urgence, car le pillage continue. J’ai l’impression que quand on montre un peu de fermeté, certains, qui s’y refusaient, viennent à la table des négociations », estime Max Brisson (LR). Avec, déjà, des effets positifs, selon Laure Darcos (groupe Les indépendants), rapporteure du texte :

« Notre mécanisme, juridiquement solide et politiquement efficace, produit d’ores et déjà ses effets : le PDG de Mistral AI a proposé une contribution des entreprises d’IA en fonction de leur chiffre d’affaires pour accéder aux contenus protégés. »

Reste à voir si cette déclaration d’intention suffira à faire pencher la balance lors de l’examen du texte à l’Assemblée nationale.

Muse Spark, le nouveau pari IA de Meta pour faire oublier Llama

9 avril 2026 à 08:36
Time is running out
Muse Spark, le nouveau pari IA de Meta pour faire oublier Llama

Avec Muse Spark, son nouveau grand modèle de langage (LLM), Meta joue gros. Il s’agit non seulement de faire oublier l’échec de Llama, la précédente génération de LLM maison, mais aussi de justifier l’investissement maousse costaud dans le labo dédié à la « superintelligence ».

Llama 4, lancé il y a quasiment un an jour pour jour, n’a pas été le succès tant espéré par Mark Zuckerberg qui veut sa part du gâteau de l’IA générative. Pire encore, des soupçons de triche dans plusieurs benchmarks ont définitivement entaché la réputation du grand modèle de langage. Un affront pour le patron de Meta, qui digère toujours l’échec de sa stratégie du métavers.

Une muse pour le cerveau de Meta AI

Hauts les cœurs et les portefeuilles : loin de se laisser abattre par le flop de Llama, Meta a mis la main à la poche pour s’offrir la crème de la crème des spécialistes de l’IA. Débauchés dans toute l’industrie de la tech, ils ont à leur tête Alexandr Wang, l’ancien dirigeant de Scale AI, dont le géant des réseaux sociaux a pris le contrôle l’été dernier en échange de 14,3 milliards de dollars. Pour se transformer en place forte de l’IA, Meta a même laissé partir des vétérans, comme son directeur scientifique Yann LeCun.

Ces experts, regroupés au sein du « Meta Superintelligence Lab » (MSL), planchent sur la nouvelle marotte de Mark Zuckerberg, la « personal superintelligence ». Un concept pour le moins flou censé « aider l’humanité à accélérer sur la voie du progrès », expliquait le CEO dans un mémo. « Plus important encore, la superintelligence pourrait ouvrir une nouvelle ère d’émancipation individuelle, où chacun disposerait d’une plus grande liberté d’action pour améliorer le monde selon ses propres choix », poursuivait-il.

Les grands discours sont une chose, la réalité en est une autre. La première réalisation concrète du MSL est baptisée Spark, premier LLM de la nouvelle famille Muse dont l’ambition se limite, si on peut dire, à alimenter le moteur IA de l’assistant du groupe. Présent dans l’application mobile Meta AI et en ligne à l’adresse meta.ai – aux États-Unis pour commencer –, le modèle se veut résolument utile.

L’utilisateur de Meta AI pourra par exemple obtenir un itinéraire complet pour un voyage familial en Floride, avec l’aide des sous-agents de Muse Spark : le premier va établir le parcours, le second va comparer plusieurs lieux, un troisième s’occupe de trouver des activités pour les minots. 

Tant qu’on a la santé

Avec ses capacités multimodales, le modèle peut « lire » une image et donner des informations sur les objets présents. Voilà qui n’a rien de franchement révolutionnaire, la plupart des IA grand public offrant le même type de fonctionnalités.

Pour tirer son épingle du jeu, Meta met en avant un aspect singulier de la perception multimodale de Muse Spark : son utilité dans le domaine de la santé. Meta AI serait ainsi en mesure de répondre de manière détaillée à des questions de santé, « y compris pour certaines questions impliquant des images et des graphiques ».

Feriez-vous vraiment confiance à une IA pour calculer des calories ?

Le secteur de la santé a été investi par les grands acteurs de l’IA : Anthropic, OpenAI, Microsoft et Perplexity se sont tous lancés avec des déclinaisons « Health » de leurs chatbots. Et le moins qu’on puisse dire, c’est qu’il vaut mieux éviter de remplacer son médecin traitant par ces versions IA pour le moment…

Meta veut placer ses muses partout

Muse Spark se veut tout aussi doué pour générer de petits jeux que pour le lèche-vitrine virtuel ou trouver des adresses de lieux sympas à découvrir (gare aux hallucinations tout de même). Ce n’est que le début, prévient Meta : « Attendez-vous à des résultats plus riches et plus visuels, avec des Reels, des photos et des publications directement intégrés aux réponses, tout en créditant leurs créateurs ». L’AI slop a encore de beaux jours devant elle.

À terme, Muse Spark va se faire une petite place dans les autres produits et services de Meta : Facebook, Instagram, Messenger, WhatsApp ainsi que dans les lunettes connectées. L’entreprise compte aussi proposer son LLM à des tiers, mais au travers d’un « aperçu privé » sous la forme d’une API limitée à quelques partenaires triés sur le volet. Meta espère être en mesure d’ouvrir les futurs modèles Muse à l’open source. Google a pris ce virage avec Gemma4 annoncé la semaine dernière.

Ce premier modèle, qualifié de « petit et rapide », se décline en deux moutures, Instant pour les réponses rapides et Thinking quand il est nécessaire de se creuser un peu le ciboulot. Selon Meta, « les résultats sont sans équivoque : nous pouvons atteindre les mêmes performances avec un ordre de grandeur en moins [généralement cela fait référence à un rapport de 10x moins, ndlr] sur la puissance de calcul par rapport à notre modèle précédent, Llama 4 Maverick ». Un troisième mode, Contemplating, saura orchestrer plusieurs agents raisonnant en parallèle ; il sera déployé progressivement dans meta.ai.

Au vu des benchmarks fournis par Meta, le MSL a effectivement soigné les fonctions multimodales, Muse Spark surclassant la concurrence sur l’interprétation des images, des graphiques et des interfaces ; le contraire aurait été étonnant dans des benchmarks mis en avant par Meta.

C’est plus inégal sur les tâches de raisonnement pur (logique, maths), tandis que le modèle se débrouille plutôt bien en code, sans être leader incontestable. Il affiche également une vraie spécialisation dans le domaine de la santé. Meta admet des « gaps » de performance dans les systèmes agentiques et les flux de coding.

Sur le plan de la sécurité, Meta ne livre pas encore de rapport de sécurité complet, mais assure que Muse Spark adopte un comportement de refus « robuste » dans des domaines à haut risque (armes chimiques et biologiques). L’entreprise promet également que le modèle n’a pas présenté de capacités autonomes ni de « tendances dangereuses » qui lui permettraient de mettre en œuvre des scénarios de menace dans le domaine de la cybersécurité.

Muse Spark peut s’enorgueillir d’avoir décroché le plus haut niveau de « conscience de l’évaluation » observé à ce jour parmi les modèles testés par le labo indépendant Apollo Research. Mark Zuckerberg en est persuadé : les futurs modèles Muse permettront à Meta de créer des services qui ne se contentent pas de répondre aux questions, mais d’agir aussi comme des agents « capables d’effectuer des tâches à votre place ». Il se dit convaincu que ses LLM soutiendront « une vague de créativité, d’entrepreneuriat, de croissance et d’amélioration de la santé. »

☕️ #LIDD Mario Kart World en version Guessr

9 avril 2026 à 07:38


Vous connaissez Mario Kart, la course de voitures version Nintendo. Mario Kart World, lancé en juin 2025, est le neuvième et actuellement dernier épisode de la franchise. « Une première dans l’histoire de la série, le jeu prend place dans un monde ouvert où tous les circuits sont interconnectés », rappelle Wikipédia.

Vous connaissez aussi certainement GeoGuessr, un jeu (lancé en 2013 et basé sur Google Maps) dans lequel il faut trouver l’endroit où l’on se trouve dans le monde à partir d’une image. Voici le mariage entre les deux avec Mario Kart World Guessr, de Mario Universalis.

Le principe est simple : une photo s’affiche et vous devez trouver son emplacement au plus près sur la carte, pour marquer jusqu’à 5 000 points par photo. Ce jeu est sorti durant l’été dernier avec une publication sur Reddit pour l’annoncer, mais il est remonté à la surface suite à un message publié par Nintendojo.

Que la bataille commence ! Pour lancer une partie de Mario Kart World Guessr c’est par ici.

MacBook Neo : un succès monstre qui complique la tâche d’Apple

9 avril 2026 à 06:46
Le juste prix, ou un prix trop juste ?
MacBook Neo : un succès monstre qui complique la tâche d’Apple

Avec son prix serré et une fiche technique solide, le MacBook Neo a, semble-t-il, trouvé son public. Sauf que maintenant, Apple doit composer avec le succès : le stock de puces s’épuise et les coûts grimpent en flèche.

Le MacBook Neo est une anomalie non seulement dans le catalogue d’Apple (qui s’attaque de front au marché de l’ordinateur portable d’entrée de gamme), mais aussi pour le reste de l’industrie. Cette machine à la fiche technique somme toute solide détonne en effet, au vu de l’explosion des prix de la mémoire. Et dans ce contexte, le constructeur parvient à la proposer à 699 euros… on a presque envie d’ajouter « seulement ».

Un problème de riche pour Apple

Pendant que les autres constructeurs se grattent la tête pour esquisser une alternative robuste au MacBook Neo, Apple serait maintenant confrontée à un problème de riche. La demande serait si forte que les stocks de l’ordinateur auraient fondu : sur l’Apple Store en ligne, il faut désormais attendre de 2 à 3 semaines avant de recevoir une commande. Mais produire de nouvelles unités n’est pas aussi simple que d’appuyer sur un bouton vert.

Pour réduire la facture des composants de son petit MacBook, Apple a pioché dans son large répertoire. Ainsi, la puce A18 Pro qui bat sous le capot de la machine n’est autre que la puce de l’iPhone 16 Pro de l’an dernier. Enfin, presque.

Le circuit graphique de la puce du MacBook Neo se contente en effet de 5 cœurs, contre 6 cœurs dans l’iPhone 16 Pro. Apple exploite ici une technique déjà mise en œuvre dans plusieurs autres de ses produits « bon marché » (tout est relatif) : le binning. Toutes les puces A18 Pro ne sont pas nées égales, il peut arriver à TSMC de produire des wafers présentant des défauts. Plutôt que de jeter les puces défectueuses, Apple les recycle dans d’autres appareils, ce qui est d’ailleurs une pratique commune dans toute l’industrie des processeurs.

Tim Culpan, un ancien de Bloomberg qui a manifestement conservé des sources au sein de la chaîne d’approvisionnement d’Apple, rapporte dans sa dernière newsletter que la commande initiale d’Apple auprès de Quanta et Foxconn était de 5 à 6 millions d’unités.

Le problème, c’est qu’avec une si forte demande, le stock de puces A18 Pro destinées au MacBook Neo serait au plus bas. L’A18 Pro de l’ordinateur est (ou était) fabriquée selon le node N3E (3 nm) de TSMC. Si Apple veut relancer la ligne de production de cette puce, il va falloir glisser un petit billet ou deux pour couper la file d’attente. C’est toujours possible, mais les marges du constructeur risquent d’y laisser quelques plumes. 

Apple peut également puiser dans les wafers prévus à l’origine pour d’autres appareils, mais la question du coût se pose là encore. L’A18 Pro du MacBook Neo n’est pas « gratuite », mais c’est du recyclage intelligent de silicium qui aurait sinon pu finir à la poubelle. Relancer une production est une toute autre affaire, ce d’autant qu’il faudrait désactiver un des cœurs GPU de ces puces pour que la fiche technique du portable reste dans les clous.

La question centrale du prix

À cela s’ajoutent d’autres coûts : les prix de la mémoire vive, le stockage SSD, et même de l’aluminium ne cessent de grimper. Apple a une puissance de feu telle qu’elle parvient à obtenir de ses fournisseurs des tarifs plus intéressants pour ces composants, mais il n’empêche qu’ils coûtent plus cher aujourd’hui qu’hier.

Pour s’en sortir sans trop grignoter ses précieuses marges, Apple peut toujours relever le prix du MacBook Neo. Mais ce serait contre-productif, car l’étiquette du portable est son principal atout, très mis en avant dans le marketing du groupe. L’entreprise peut aussi décider d’arrêter de vendre le modèle à 699 euros (256 Go) pour ne plus proposer que la version mieux équipée (512 Go et Touch ID) à 799 euros. Mais là encore, ça ferait perdre de l’intérêt à cette gamme pensée pour séduire les petits budgets.

La dernière échappatoire serait de faire le dos rond, d’accepter de perdre des ventes, et d’accélérer la production de la future génération du MacBook Neo. Selon Tim Culpan, Apple prépare un modèle équipé d’une puce A19 Pro, la même que celle des iPhone 17 Pro, qui intègre 12 Go de mémoire unifiée (contre 8 Go pour l’A18 Pro). Il s’attend à ce que le constructeur reprenne la même stratégie, en utilisant des A19 Pro contenant un GPU avec 5 cœurs actifs, au lieu de 6 habituellement. Ce nouveau modèle serait lancé l’année prochaine mais qui sait, peut-être qu’il faudra aller plus vite.

Microsoft a bloqué les comptes des développeurs de VeraCrypt, WireGuard et Windscribe

9 avril 2026 à 06:00
Les mises à jour restent au garage
Microsoft a bloqué les comptes des développeurs de VeraCrypt, WireGuard et Windscribe

Il y a quelque chose qui coince chez Microsoft. Les développeurs de VeraCrypt, WireGuard et Windscribe ont subi une suspension de leur compte, sans réelle explication de la part de l’éditeur. Résultat : impossible de livrer des mises à jour. La situation devrait heureusement se résoudre très bientôt, suite à l’intervention d’un vice-président de Microsoft.

Mise à jour, 10/04 — Tout finit par s’arranger pour le mieux. Mounir Idrassi, le développeur de VeraCrypt, nous a en effet informé que son accès au portail Microsoft Partner Center a été rétabli suite à l’intervention de Scott Hanselmann. C’est aussi le cas pour Windscribe et pour WireGuard.

Article original, 9/04 — Mauvaise surprise pour les développeurs du logiciel de chiffrement VeraCrypt et du protocole VPN WireGuard, deux applications open source. Visiblement sans crier gare, Microsoft a suspendu leur compte. « Microsoft a résilié le compte que j’utilisais depuis des années pour signer les pilotes Windows et le bootloader », déplore Mounir Idrassi, l’auteur de VeraCrypt.

Microsoft aux abonnés absents

Il n’a reçu « aucun email ni avertissement préalable », affirme-t-il dans un message sur SourceForge remontant au 30 mars. Contacté par Next, il indique simplement qu’il « doit donc y avoir une nouvelle politique chez Microsoft », mais il regrette amèrement le « manque de transparence et de communication de la part de Microsoft »

Même discours ce 8 avril chez Jason A. Donenfeld, créateur et animateur principal de WireGuard. « Un jour, je me connecte pour publier une mise à jour et là, catastrophe : compte suspendu», décrit-il sur le forum de Hacker News.

Dans les deux cas, les développeurs n’ont personne vers qui se tourner chez Microsoft. « Je n’ai obtenu que des réponses automatisées et des bots. Je n’ai pas réussi à joindre un interlocuteur humain », regrette Mounir Idrassi.

Conséquences directes : impossible de publier des mises à jour

Dans les deux cas, les conséquences sont identiques : impossible de publier des mises à jour, ce qui est particulièrement problématique en cas de faille de sécurité. « Imaginez qu’il y ait une faille critique d’exécution de code à distance dans WireGuard, exploitée activement, et que je doive mettre à jour immédiatement (c’est purement hypothétique, pas de panique !) », explique Jason A. Donenfeld. « Dans un cas comme celui-là, Microsoft me laisserait avec les mains entièrement liées. »

Pour VeraCrypt, les mises à jour pour Linux et macOS restent possibles, mais Windows est la plateforme utilisée par la majorité des utilisateurs. Cette suspension de compte est « un coup dur pour le projet », et elle a « des conséquences sur mon activité professionnelle quotidienne », indique son développeur. Il précise à TechCrunch que pour le moment l’utilitaire continue de fonctionner normalement, et qu’aucune faille de sécurité n’a été identifiée récemment.

Si la situation devait rester en l’état, les utilisateurs de VeraCrypt ayant activé le chiffrement de leur système d’exploitation risquent de rencontrer un vrai gros problème à partir de cet été, prévient Mounir Idrassi : « Microsoft va révoquer l’autorité de certification qui a été utilisée pour signer le bootloader de VeraCrypt ». 

Une nouvelle certification Microsoft est nécessaire pour que le bootloader puisse continuer de fonctionner, mais sans accès à son compte, le développeur ne pourra pas appliquer cette nouvelle signature. Résultat : le démarrage de Windows chiffré avec VeraCrypt sera impossible. C’est l’équivalent d’« une condamnation à mort ».

Enfin un signe de vie

VeraCrypt et WireGuard ne sont pas les deux seuls dans cette panade. Le service VPN Windscribe a lui aussi subi une suspension de son compte Microsoft (vérifié depuis plus de 8 ans, selon l’éditeur). Mais dans ce dernier cas, l’éditeur a donné un signe de vie. Scott Hanselmann, vice-président de Microsoft et membre de l’équipe technique GitHub, a en effet répondu sur X que le problème devrait être réparé « sous peu ». 

En plus de Windscribe, le dirigeant a contacté Jason A. Donenfeld et Mounir Idrassi, ce que le développeur de VeraCrypt a confirmé auprès de Next. Il attend désormais de voir la suite qui sera donnée à son dossier :

« Le principal problème reste toutefois le manque de transparence et de communication de la part de Microsoft. J’ai été choqué de lire dans la notification affichée sur mon compte qu’aucun recours n’était possible ! […] Il s’agissait simplement d’un problème de communication et de vérification [selon Scott Hanselmann], mais il devrait y avoir une communication claire pour avertir les auteurs de ce type de situation. »

On peut espérer que la situation se débloque pour tout le monde rapidement. Dans sa réponse à Windscribe, Scott Hanselmann pointe vers un billet de blog du Hardware Dev Center remontant au 1ᵉʳ octobre 2025. Microsoft y détaille une nouvelle exigence de vérification de compte pour tous les partenaires du programme matériel Windows qui n’auraient pas complété l’opération de vérification depuis avril 2024. Ce programme s’occupe aussi de la certification des pilotes logiciels.

Le processus de vérification devait être effectué sous les 30 jours, à compter du 16 octobre 2025. Microsoft a mis à jour le billet le 3 mars : la vérification des comptes pour le programme a pris fin. « Les comptes qui n’ont pas finalisé avec succès cette vérification et ont reçu un statut « rejeté » ont été suspendus du programme Windows Hardware, et les soumissions provenant de ces comptes ne sont plus autorisées », ajoute l’entreprise.

Microsoft : « Tout est en train d’être corrigé »

Windscribe ne décolère pas : « Nous essayons de résoudre cela depuis plus d’un mois, et nous n’avançons pas. Le support est inexistant. Quelqu’un connaît-il un humain avec un cerveau qui fonctionne encore chez Microsoft et qui pourrait aider ? ». Le bruit engendré par cette affaire fait bouger les choses.

Il y a quelques heures à peine, Windscribe affirmait que « certaines personnes bienveillantes chez Microsoft ont pris contact et apparemment, cela est en cours de résolution ». Cette nuit toujours, Scott Hanselman ajoute avoir parlé à Mounir Idrassi et Jason Donenfeld : « Tout est en train d’être corrigé pendant qu’on parle ».

Reçu — 8 avril 2026 Next - Articles gratuits

Quoi de neuf à la rédac’ de Next ? L’arrivée d’un nouveau journaliste !

8 avril 2026 à 15:47
« +1 » + « +1 », ça fait déjà +2 !
Quoi de neuf à la rédac’ de Next ? L’arrivée d’un nouveau journaliste !

Trois ans après le rachat de Next par moji, le site et l’équipe continuent de se renforcer ! Une nouvelle plume rejoint la rédaction. Nous sommes désormais huit à vous proposer des contenus sur Next.

+ 1 dans la rédac’

Vous faisiez quoi le 23 mars à 19h17 ? Ferd, en toute détente, annonçait du nouveau à venir sur Next avec une « bonne surprise ». Ne feignez donc pas la surprise ce matin de voir une nouvelle plume – Mickaël Bazoge – signer des articles sur Next. Bonne nouvelle, il rejoint Next à temps plein à partir de cette semaine. Pour commencer, bienvenue !

Mickaël… ce prénom vous parle ? Rien d’étonnant, il a passé quelques années chez MacG puis chez 01Net (groupe Keleops) ; cela fait une vingtaine d’années qu’il parle de la tech, sous toutes ses formes. Sur Next, il couvrira une large variété de sujets dans la lignée de ce que nous faisons déjà… avec, selon l’humeur du chef, une pointe d’actualité autour du monde des jeux vidéo. Vous pouvez retrouver ses actus sur sa page profil.

Mickaël est basé à Montréal (au Canada, pas la petite commune dans l’Aude), il est donc en décalage de six heures par rapport à nous (son matin est notre après-midi) ; c’est pratique pour suivre les annonces aux États-Unis ! Comme l’ensemble de la rédac’, il est en télétravail.

+ 2 en deux ans avec l’arrivée d’Alex

L’équipe se renforce donc encore une fois. Depuis le rachat (et le sauvetage) de Next par moji, la rédaction a donc gagné deux journalistes : Alexandre Laurent arrivé durant l’été 2024 et maintenant Mickaël Bazoge. Tous les deux viennent en renfort de Jean-Marc Manach, Martin Clavey, Mathilde Saliou, Vincent Hermann et moi-même… sans oublier l’indécrottable Flock (en vacances cette semaine, pas de chronique samedi, mais celle de la semaine dernière compte double). Vincent est pour le moment en arrêt prolongé, et on lui souhaite de nous rejoindre dès que possible !

C’est un pari sur l’avenir car Next n’est pas (encore) à l’équilibre au niveau de ses comptes. Renforcer l’équipe et vous proposer toujours plus de contenus nous semble par contre indéniablement la bonne voie pour satisfaire nos abonnés et en recruter de nouveaux. Pour rappel, les abonnements – 8 euros par mois, ou 80 euros par an – sont notre seule source de revenus.

Next n’a aucune publication, aucun lien affilié ni aucun contenu sponsorisé depuis son rachat, pour l’ensemble de nos lecteurs. Pire, Next vous fait un cadeau avec votre abonnement : 1 To de stockage S3, en France, géré par moji, voire encore plus pour ceux qui disposent d’un compte depuis plusieurs années.

Quoi de neuf dans le reste de la rédac’ ?

Mathilde continue de nous proposer des épisodes de podcast, à écouter sans modération. Dernier en date, le numéro six d’entre la chaise et le clavier, avec « ce que l’IA fait à la traduction avec En chair et en os ». Ce soir, le 7ᵉ épisode parle de vulgarisation avec Pierre Kerner et Adrien Perrard. Tous les épisodes sont à retrouver sur cette page (vous pouvez aussi vous abonner au feed RSS du podcast).

Alexandre continue de travailler sur le projet de La Presse Libre v2.0, entre deux actualités sur des levées de fonds, des entrées en bourse et des chantiers de datacenters.

Jean-Marc nous en apprend tous les jours sur les fakes news alimentées par IA… saviez-vous par exemple qu’il était « interdit d’ouvrir ses fenêtres » ? Nous non plus… Reste que la liste des sites d’info générés par IA flaggués par notre extension vient aussi de franchir le cap des 12 300 sites GenAI !

Martin, pendant ce temps, décortique les annonces autour des intelligences artificielles, notamment sur son utilisation en chimie, sans oublier un retour d’expérience passionnant sur le passage d’une ville aux logiciels libres dès 2021.

Quant à moi, entre les opérations de fouilles archéologiques dans la GavCave et la publication d’une carte interactive sur les emails de plus de 36 000 mairies françaises, je vous propose des tutos sur les VPS et notamment, point très important, comment les sécuriser. Une autre carte interactive sur le vaste monde numérique est en train d’être finalisée, on en reparle rapidement.

Sur le site, de nombreuses améliorations ont été apportées, mais je vais laisser la primeur de ces infos à un futur Poing Dev qui ne saurait tarder.

☕️ Chrome passe (enfin) aux onglets verticaux et au mode lecture en pleine page

8 avril 2026 à 15:36


Après l’introduction de la vue partagée, Google vient de publier une mise à jour de Chrome (version 147) qui permet au navigateur de se mettre au niveau de la concurrence sur deux aspects : la gestion des onglets verticaux, et le mode lecture.

Les onglets verticaux sont particulièrement utiles sur les écrans larges (type 21:9 et autres formats dits ultrawide) puisqu’ils permettent d’afficher une portion plus importante du titre de la page ouverte, facilitant ainsi la navigation ou la recherche d’un onglet précis.

Promis de longue date par Google, les onglets verticaux n’étaient jusqu’ici accessibles qu’après une activation manuelle au niveau du menu des fonctionnalités expérimentales. Ils sont désormais en cours de déploiement pour tous les utilisateurs. L’option correspondante est censée apparaître au clic droit sur la barre d’onglets.

Chrome se met enfin à la page avec des onglets verticaux officiellement pris en charge – capture d’écran Next

La vue verticale dispose d’un mode réduit qui permet de n’afficher que le favicon des différents sites ouverts pour garder un accès direct aux onglets tout en augmentant la surface d’affichage utile. Elle propose logiquement, elle aussi, de créer des groupes d’onglets et d’organiser ces derniers par nom ou par étiquettes de couleur.

Une bonne nouvelle n’arrivant jamais seule, Google profite de l’occasion pour introduire un mode lecture plein écran. Jusqu’ici, l’option correspondante offrait en effet une vue simplifiée de la page en cours (expurgée des éléments graphiques et contextuels) mais uniquement sous forme d’écran partagé. Une façon, pour le moteur de recherche, de préserver le fondement de son modèle économique, puisque le mode lecture fait disparaître la plupart des publicités.

À gauche, l’ancien mode lecture, à droite le mode plein écran introduit par Chrome 147 – captures d’écran Next

Présenté comme « plus immersif », ce mode lecture dispense des options de réglage de la taille de la police, de l’interligne, ou de la couleur de fond, ainsi qu’un mode de lecture vocale (text to speech). Il est par ailleurs présenté comme compatible avec les lecteurs d’écran.

Ces deux options, annoncées par un billet de blog, sont censées être disponibles chez tous les utilisateurs, mais comme toujours, le déploiement se fait de façon échelonnée. Si l’une ou l’autre de ces options n’est pas activée chez vous, rendez-vous dans le menu des fonctionnalités expérimentales via ces deux liens :

☕️ Bitcoin : une nouvelle enquête affirme révéler l’identité de Satoshi Nakamoto

8 avril 2026 à 11:01


Serait-ce enfin l’épilogue ? Dix-sept ans après la publication du fameux livre blanc signé Satoshi Nakamoto et l’essor du phénomène bitcoin, deux journalistes du New York Times affirment être en mesure de certifier l’identité réelle de son créateur. D’après leur longue enquête, tous les éléments convergent vers Adam Back, un cryptographe d’origine britannique âgé de 55 ans.

Pour mettre un nom sur l’un des hommes les plus recherchés au monde, John Carreyrou et Dylan Freedman ont notamment passé au crible les archives de la célèbre mailing list Cypherpunks dont les échanges, inscrits dans le courant de pensée éponyme, ont participé à la création des cryptoactifs en général et de bitcoin en particulier.

Au cours de leurs travaux, les deux journalistes estiment avoir mis au jour des similitudes troublantes entre les échanges signés par Adam Back et ceux attribués à Satoshi Nakamoto. Le premier aurait d’ailleurs disparu quand le second a fait son entrée sur le devant de la scène, avant que le mouvement inverse ne s’opère. En 2011, Nakamoto s’est en effet soudainement tu. Six semaines après sa disparition, Adam Back s’est ensuite exprimé pour la première fois publiquement sur le bitcoin.

Adam Back a démenti mercredi être le créateur de bitcoin – capture d’écran

John Carreyrou, célèbre pour avoir déclenché l’affaire Theranos quand il écrivait encore au Wall Stret Journal exhume quelques déclarations ambivalentes, et souligne comment les travaux préliminaires d’Adam Back ouvraient la voie au bitcoin. L’intéressé a en effet conçu et développé, dès 1997, un système de preuve de travail baptisé Hashcash, initialement pensé pour la lutte contre le spam, et repris ultérieurement dans l’univers bitcoin. Carreyrou retrace également le parcours de Back depuis le lancement de bitcoin, et s’interroge notamment sur les raisons de son installation à Malte, à partir de 2009.

Le gros de l’enquête réside toutefois sur des mécaniques d’analyse du discours assistée par ordinateur, qui mettent en lumière des expressions idiomatiques, des tics de langage, des constructions rhétoriques et des idées que l’on retrouve aussi bien dans les propos signés Adam Back que dans ceux attribués à Satoshi Nakamoto.

L’analyse finale est même purement quantitative : les deux auteurs indiquent avoir créé un corpus regroupant des messages émanant de 620 candidats potentiels à la paternité de bitcoin, et passé cet inventaire au crible des écrits de Nakamoto. Dans le lot, le seul à cocher toutes les cases, de la façon d’écrire email à l’emploi de tournures britanniques plutôt qu’américaines, s’est révélé Adam Black.

Dont acte ? L’intéressé a réagi mercredi 8 avril sur les réseaux sociaux.

« Je ne suis pas Satoshi, mais j’ai été parmi les premiers à me concentrer sur les implications sociétales positives de la cryptographie, de la confidentialité en ligne et de la monnaie électronique, d’où mon intérêt actif, à partir de 1992 environ, pour la recherche appliquée sur la monnaie électronique et les technologies de confidentialité sur la liste de diffusion des cypherpunks, ce qui a conduit à Hashcash et à d’autres idées ».

D’après lui, les liens sémantiques établis par Carreyrou relèveraient de la coïncidence, et d’une proximité de pensée entre des passionnés partageant des centres d’intérêt commun. Et le secret qui entoure la création de bitcoin mériterait d’être défendu : « Je ne sais pas non plus qui est Satoshi, et je pense que c’est une bonne chose pour le bitcoin, car cela contribue à ce qu’il soit perçu comme une nouvelle classe d’actifs, une matière première numérique mathématiquement rare ».

En attendant l’éventuelle transaction réalisée depuis le premier portefeuille en bitcoin de la chaîne, qui ferait sans doute office de preuve irréfutable, le mystère de l’identité de Satoshi Nakamoto n’a donc probablement pas fini de susciter enquêtes et controverses.

Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI

8 avril 2026 à 08:13
Sam, celui qui conduit c’est celui qui…
Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI

Il se passe toujours quelque chose chez OpenAI, à tel point que la start-up se donne parfois des allures de poulet sans tête. Pas très rassurant à quelques encablures d’une introduction en Bourse.

Les derniers jours ont été particulièrement turbulents chez OpenAI. En toute fin de semaine dernière, l’entreprise a ainsi annoncé une réorganisation de grande ampleur suite au congé maladie de Fidji Simo, « CEO des applications » et numéro 2 de la start-up, derrière Sam Altman.

En 2019, la Franco-Américaine a été diagnostiquée du syndrome de tachycardie orthostatique posturale. « Il est désormais clair que je suis allée un peu trop loin et que je dois vraiment essayer de nouvelles approches pour stabiliser ma santé », a-t-elle expliqué dans un mémo à ses équipes.

Retrait surprise de la numéro 2 d’OpenAI

Embauchée par le créateur de ChatGPT en mai 2025, elle occupait un poste complètement inédit au sein du groupe : directrice générale en charge des applications. L’ancienne vice-présidente de Facebook, devenue par la suite CEO d’Instacart, a poussé une stratégie de recentrage d’OpenAI et de ses précieuses ressources vers la génération de code et les services aux entreprises afin de mieux concurrencer Anthropic. La fermeture de Sora, le générateur de vidéos IA, et la suspension du développement du « mode adulte » de ChatGPT, participent à cette réorientation.

Fidji Simo voudrait aussi créer une « superapp » regroupant ChatGPT, Codex et le navigateur Atlas. En son absence forcée, ce projet ira-t-il à son terme ? Il est en tout cas entre les mains de Greg Bockman, le président d’OpenAI, qui prend cette superapp sous son aile. Brad Lightcap, le directeur des opérations, s’occupera des « projets spéciaux ». Fidji Simo était montée au créneau il y a encore quelques jours seulement pour expliquer le rachat de la chaîne tech TBPN (Technology Business Programming Network) par OpenAI.

Dans la foulée, la directrice marketing Kate Rouch a décidé de se retirer temporairement pour se consacrer à son rétablissement après un cancer. Elle occupait ce poste depuis un an et demi. Elle assurera la transition avec son remplaçant et « espère revenir dans un rôle différent à l’avenir si [sa] santé le lui permet ».

L’ombre de l’IPO

Ce bouleversement dans l’organigramme tombe à un moment délicat pour OpenAI, qui vient de boucler un tour de table à hauteur de 122 milliards de dollars, et qui s’apprêterait à se lancer à Wall Street cette année… Du moins si la direction de l’entreprise parvient à s’entendre sur cette question !

Le site The Information rapporte en effet les frictions entre la directrice financière Sarah Friar et le grand patron Sam Altman concernant le calendrier de l’introduction en bourse (IPO). Les procédures à mettre en place, le travail encore à accomplir en matière d’organisation, et les risques liés aux engagements de dépenses (notamment pour les équipements en serveurs) pourraient mettre à mal l’opération en 2026.

Bizarrement, la directrice financière relevait depuis août dernier non pas du directeur général Sam Altman, comme c’est généralement l’usage, mais… de Fidji Simo, qui vient donc de partir en congé maladie. Un vrai sac de nœuds !

Sur le strict plan financier, OpenAI aurait aussi prévenu les investisseurs que la marge brute réalisée en 2025 était inférieure aux prévisions. Elle a été grignotée par l’achat en urgence de capacités de calcul supplémentaires pour faire face à une demande plus forte que prévu. Sarah Friar s’inquiéterait également de la croissance des revenus, qui tournerait au ralenti.

Sam Altman se fait (encore) tirer le portrait

Le tableau ne serait pas complet sans le portrait de Sam Altman publié ce week-end par The New Yorker. À travers de nombreux témoignages et mémos internes, il dépeint un dirigeant habile, obsédé par la gagne, et qui entretiendrait un rapport, disons, très souple à la vérité.

Sam Altman en prend pour son grade. « Tu dois comprendre que Sam ne peut jamais être digne de confiance […] C’est un sociopathe. Il ferait n’importe quoi », aurait affirmé Aaron Swartz, informaticien, militant politique et hacktiviste américain qui s’est suicidé en janvier 2013. Le terme sociopathe a été utilisé spontanément par d’autres personnes, notamment du conseil d’administration d’OpenAI, expliquent nos confrères.

« Il n’a que faire de la vérité » et n’hésiterait pas à « déformer, trafiquer, renégocier et renier des accords », selon une source. Il posséderait, selon une autre source de chez Microsoft citée par nos confrères, deux traits de caractère que l’on ne retrouve généralement pas chez une seule personne : « un fort désir de plaire aux autres, d’être apprécié dans toutes ses interactions [et] un manque de préoccupation, presque sociopathique, des conséquences que pourrait entraîner le fait de duper quelqu’un ».

L’année dernière, Sam Altman était déjà au cœur de l’attention des médias avec les « OpenAI Files », une collection de documents regroupant de nombreux témoignages, notamment d’anciens employés de l’entreprise. Le portrait n’était pas flatteur. Des cadres supérieurs des trois entreprises qu’il a dirigées ont tenté de le démettre de ses fonctions. Son comportement chez Y Combinator aurait été qualifié de « trompeur et chaotique », avec en plus des accusations d’absentéisme et de course à l’enrichissement personnel. Il aurait menti et cherché à semer la zizanie dans le conseil d’administration… n’en jetez plus.

Le dévoilement de ces coulisses et la réorganisation de la direction au plus haut niveau pourraient-ils faire capoter l’IPO d’OpenAI ? Sans doute pas, les intérêts sont trop élevés, d’autant qu’Anthropic aussi se joint à la fête avec la volonté d’une entrée en bourse cette année. Mais ces remous confirment à tout le moins qu’au-delà de la figure publique de Sam Altman, la gouvernance de l’entreprise reste fragile.

☕️ Votre PC tient-il la route ? Steam pourrait donner la réponse avec une estimation des FPS

8 avril 2026 à 06:46


Quel joueur ne s’est pas réveillé en pleine nuit, de la sueur glacée perlant à grosses gouttes sur le visage et dans le dos, en se demandant si tel jeu allait tourner correctement sur son PC ? Il faut dire que les outils à leur disposition sont limités : ils peuvent toujours se référer aux configurations recommandées par l’éditeur, mais souvent cela revient à croiser les doigts dans l’espoir que tout tourne au mieux !

Steam pourrait bien leur faciliter la vie. La dernière bêta du client de la boutique contient des références à un « estimateur de framerate » qui fonctionnerait de la manière suivante : soit en renseignant la configuration matérielle du PC (CPU, GPU, RAM), soit en laissant le logiciel fouiller tout seul pour obtenir ces informations.

© dex3108

Après avoir sélectionné un jeu, Steam serait en mesure de retourner une estimation du nombre d’images par seconde que l’on devrait obtenir sur sa machine. Sur PC, la boutique Xbox offre un outil assez proche, mais elle se contente de dire comment tel jeu fonctionnera sur l’ordinateur, en restant vague. Sur Steam, il s’agira d’obtenir une donnée chiffrée.

Depuis le mois de février, le client Steam en bêta invite tous ceux qui laissent un avis sur la page d’un jeu à inclure automatiquement les caractéristiques matérielles de leur machine. Ils peuvent également autoriser la collecte de données (anonymisées) sur la fréquence d’images. C’est aussi le cas depuis la mise à jour de la version stable de SteamOS pour le Steam Deck qui remonte au 9 mars.

Valve précise que la fonction « est actuellement en version bêta et se concentre sur les appareils fonctionnant sous SteamOS », mais comme on le voit l’éditeur semble voir plus large que les seuls appareils de son écosystème. Il est vrai cependant que c’est plus facile de commencer par SteamOS, où le parc matériel se restreint à une poignée de consoles portables. La console de salon Steam Machine est toujours dans les limbes…

Le framerate ne fait pas tout, et on attend de voir si l’outil de Steam inclura des variations de FPS en fonction de la résolution du jeu et des paramètres de qualité sélectionnés. Le principe reste intéressant, ne serait-ce que pour avoir une idée un peu plus claire des performances à attendre. À voir si cette fonctionnalité arrivera en version finale et, si c’est le cas, sous quelle forme elle sera proposée

Y a-t-il trop de Copilot dans l’avion ?

8 avril 2026 à 06:01
L'heure de pointe dans le cockpit
Y a-t-il trop de Copilot dans l’avion ?

Trop de copilotes tuent-ils le Copilot ? C’est la question soulevée par un spécialiste de l’IA qui a dénombré des dizaines de versions différentes de Copilot chez Microsoft. L’éditeur en met partout, à toutes les sauces.

Sorti de Copilot, point de salut chez Microsoft. L’éditeur a la fâcheuse habitude de nommer bizarrement ses logiciels et services ; son IA ne fait pas exception. La course à l’IA générative l’a ainsi poussé à coller l’étiquette Copilot sur un peu tout et n’importe quoi.

Pour le commun des mortels, Copilot évoque un chatbot ou un bouton mystérieux dans une application. Pour Microsoft, c’est une marque à insérer au chausse-pied partout où c’est possible : on travaille dans Microsoft 365 Copilot, avec le mode Copilot du navigateur Edge qui affiche GitHub Copilot, le tout, bien sûr, sur un PC Copilot+ (dont le clavier comprend… une touche Copilot).

Des Copilot dans tous les sens

Cette boulimie presque incontrôlable a été mesurée par Key Bannerman, spécialiste IA, qui s’est amusé à cartographier les différents Copilot. Il en a compté 78, et deux de plus se sont ajoutés depuis : Gaming Copilot (une IA pour l’aide en jeu sur PC et les consoles Xbox), et Microsoft Dragon Copilot, un assistant IA pour le secteur de la santé. Sans oublier Copilot Health annoncé en mars.

La carte donne le vertige :

© Key Bannerman

Copilot existe sous la forme de chatbots, d’applications de bureau, de plateformes pour les entreprises, d’outils pour développeurs, d’apps dans d’autres apps, dans des logiciels professionnels ou encore dans le matériel (la fameuse touche Copilot des Copilot+PC). Il existe même un Microsoft Copilot Studio pour créer d’autres Copilot !

Pour Key Bannerman, chaque équipe en interne doit prouver « qu’elle fait partie de l’histoire de l’IA », au risque sinon de se dissoudre dans le grand rien. Renommer tout et n’importe quoi Copilot ne serait qu’« un instinct de survie ».

L’IA générative a allumé la mèche d’une course à l’échalote entre les grands noms de la tech. Google aussi a tendance à apposer l’étiquette Gemini un peu partout. Mais, chez Microsoft, l’inflation de Copilot donne surtout l’impression que personne n’est au manche de l’avion — ou plutôt si : 80 copilotes.

De l’IA au chausse-pied

Reste à savoir à quoi sert tout ce petit monde. Un changement discret, réalisé en octobre dans les conditions d’utilisation de Copilot, a rebondi sur les réseaux sociaux ces derniers jours. Microsoft y explique — en gras et bien visible — que « Copilot est uniquement destiné à des fins de divertissement […] Ne vous fiez pas à Copilot pour obtenir des conseils importants. » Un message qui contraste avec le discours de l’entreprise, promouvant une IA « utile » pour les utilisateurs comme pour les entreprises.

Microsoft prévoit toutefois de modifier prochainement les termes et conditions de Copilot. « La formulation “à des fins de divertissement” est un héritage de l’époque où Copilot a été lancé comme un service d’accompagnement à la recherche dans Bing », a expliqué un représentant du groupe à PCMag. Une formulation qui ne reflète plus la manière dont l’IA est désormais utilisée. Ça va mieux en le disant.

C’est une manière pour l’éditeur de rappeler que son IA générative peut faire des erreurs. Un message plus ou moins similaire se trouve chez d’autres. Anthropic par exemple rappelle que « Claude est une IA et peut faire des erreurs », de même chez OpenAI avec ChatGPT qui peut aussi « commettre des erreurs ».

Trop de Copilot tue-t-il le Copilot ? Microsoft avait reçu un accueil glacial en fin d’année dernière, lors de la présentation d’une vision d’un Windows « agentique ». À tel point que l’éditeur a annoncé une réduction de la voilure des fonctions IA dans le système d’exploitation.

En mars, lors de l’annonce de changements en profondeur pour Windows 11, Microsoft laissait entendre que les intégrations inutiles de Copilot allaient disparaitre, à commencer par Capture et croquis, Photos, Widgets et Bloc-notes.

Reçu — 7 avril 2026 Next - Articles gratuits

Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

7 avril 2026 à 14:18
CNRS, est-ce, esse
Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

Alors que son budget initial pour 2026 prévoyait déjà un déficit de 239 millions d’euros, le CNRS annonce en interne devoir procéder à un tour de vis supplémentaire de 20 millions d’euros, dont une partie sera répercutée sur la dotation aux unités de recherche. Certains projets seraient de ce fait menacés.

Un courrier du PDG du CNRS, Antoine Petit, adressé le 24 mars aux directeurs d’unité et qu’a pu consulter l’AFP, évoque un budget initial 2026 déficitaire de 239 millions d’euros « directement lié à des reprises de subventions mises en œuvre depuis 2024 ».

« La baisse des crédits n’a pas pu épargner la dotation des laboratoires », précise le courrier, qui avance que « le montant cumulé de ces charges représente plus de 500 millions d’euros depuis octobre 2024 », souligne Libé.

Une baisse à rapporter aux 2,9 milliards d’euros de dotation annuelle du principal organisme de recherche français. Il emploie 34 000 agents, dont plus de 10 000 chercheurs, soit le plus grand opérateur de l’État après France Travail, selon le rapport de la Cour des comptes de mars 2025, qui le qualifiait d’« opérateur de recherche unique en son genre, dont l’excellence est universellement reconnue et dont les comptes sont sains ».

Contacté par l’AFP, le ministère de l’Enseignement supérieur et de la Recherche évalue quant à lui à « 120 millions d’euros » le montant des charges non compensées « sur la période 2024 - 2026 ».

Une baisse de 5 % du financement du CNRS aux laboratoires

Le CNRS confirme de son côté à l’AFP que « jusqu’à présent le CNRS avait trouvé des marges de manœuvres permettant de ne pas répercuter la contrainte budgétaire sur les moyens financiers alloués aux laboratoires, mais c’est désormais malheureusement impossible ».

Matignon aurait en effet demandé au CNRS de procéder à un tour de vis supplémentaire sur son budget initial, du fait de perspectives budgétaires « particulièrement contraintes ».

« Dans ce contexte, le cabinet du Premier ministre a demandé au CNRS de présenter un budget rectificatif incluant une diminution des prévisions de dépenses de 20 M€ afin de conserver une trésorerie non fléchée de quelques dizaines de millions d’euros en fin d’exercice 2026 », écrit le PDG dans son courrier du 24 mars, reproduit par le syndicat SNCS-FSU.

Antoine Petit souligne qu’il a été fait le choix de « préserver le scénario quinquennal 2023 - 2027 des recrutements annuels par concours (270 chercheurs et 360 ingénieurs et techniciens) prévus dans le cadre de la loi de la programmation de la recherche ».

Dans une précédente déclaration, le syndicat soulignait qu’au total, « 20 millions d’euros d’économies sont imputés au fonctionnement, équipement et investissement : 13,5 millions d’euros sont pris aux laboratoires, soit une baisse de 5 % du financement du CNRS aux laboratoires, et 6,5 millions d’euros sont économisés sur des investissements en immobilier ».

« Le budget rectificatif n°1 inscrit à l’ordre du jour du CA du 13 mars nous est parvenu la veille vers 15 h » s’insurge une déclaration intersyndicale. Elle évoque un comportement « inadmissible » découlant « de choix politiques qui ne font aucun cas du CNRS et de ses personnels et [impactant] l’avenir de notre organisme », et affirme que « nos tutelles veulent imposer une austérité encore plus drastique au CNRS » :

« Le sous-financement chronique de la recherche publique française conduit au déclassement du pays par rapport à ses homologues européens et internationaux. »

« Un niveau historiquement bas depuis 1980 »

Le SNCS-FSU « dénonce avec la plus grande fermeté ce budget dangereusement déficitaire, catastrophique pour le CNRS et la recherche publique en France », à mesure que « ce budget du CNRS porte la masse salariale sur subvention d’État à 91 % de cette subvention, ce qui rend impossible toute mesure d’économie sans atteindre les activités de recherche du CNRS » : « Ce budget 2026 marque un tournant majeur avec une nouvelle étape dramatique dans les reniements des gouvernements successifs de ces vingt dernières années envers la recherche publique. »

Le syndicat avance que l’État « n’a jamais respecté l’engagement européen qu’il avait pris d’investir, dès 2010, 3 % du produit intérieur brut (PIB) pour la recherche et développement (R&D), dont 1 % du PIB pour la recherche publique ».

Il « a été insincère avec la Loi de programmation de la recherche de 2020 (LPR) » qui, plutôt que de rattraper le retard et d’atteindre 1 % du PIB pour la recherche publique, « a ramené son budget à un niveau historiquement bas depuis 1980, à savoir 0,74 % du PIB en 2023 », un pourcentage qui « sera encore plus faible cette année » :

« Alors qu’une accélération de la programmation budgétaire de la LPR est indispensable, c’est le contraire qui est programmé par le gouvernement pour la deuxième année consécutive. Ce budget devrait encore participer à l’érosion de l’emploi scientifique pérenne sur subvention d’État et donc à la chute d’attractivité du CNRS et à l’affaiblissement de notre établissement. »

« À la fin de l’année, il n’y aura plus de réserve »

« Cette année, pour la première fois, une partie des crédits de fonctionnement nous a été donnée avec l’argent des ressources propres, c’est-à-dire la réserve budgétaire », explique à l’AFP Vincent Artero, directeur du Laboratoire de Chimie et Biologie des Métaux : « On comprend qu’il n’y avait pas assez de subventions d’État pour nous donner ce qu’ils nous donnaient d’habitude. On prend sur nos réserves. Mais à la fin de l’année, il n’y aura plus de réserve. »

« Nous avons des remontées très inquiètes en particulier de nos collègues en sciences humaines et sociales », précise à l’AFP Fabrice Kordon, coprésident de l’Assemblée des directeurs de laboratoires.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère »

Au point que quelques directeurs envisagent l’arrêt de certains projets à compter d’octobre. « Les recherches les plus impactées directement sont celles qui vont être les plus dépendantes des équipements », explique à l’AFP Matthieu Refregiers, au nom du Comité des directeurs de laboratoires CNRS d’Orléans.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère. Quelqu’un passe et dit : Vous êtes sûr que vous l’avez perdue là ? Non, je l’ai perdue là-bas. Mais alors pourquoi vous cherchez ici ? Parce qu’ici, il y a de la lumière : ça, c’est la science selon nos politiques, trop sensibles aux effets de mode », ironise Fabrice Kordon.

Une situation qui, résume l’AFP, oblige les laboratoires à se concurrencer pour trouver des financements, les rapprochant du modèle anglo-saxon, et privilégiant les recherches qui sont dans l’actualité.

« Un même chercheur, deux fois plus de résultats, pour un coût perçu constant », résume une note interne consacrée à des travaux exploratoires sur l’optimisation des ressources humaines, qui précise que les implications éthiques seront examinées « dans un second temps, si nécessaire », relève la CFDT Recherche EPST.

Concrètement, les équipes de recherche vont en outre devoir rendre une partie de l’argent déjà versé pour leur année 2026, un revers « inédit », souligne Libé.

Nota bene relatif au sous-titre : l’esse est un crochet de boucherie en forme de S, destiné à suspendre les carcasses.

Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

7 avril 2026 à 12:37
J’ai ma IA en local
Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

Juste avant le week-end prolongé de Pâques, Google a lancé son nouveau modèle Gemma 4, en open source avec une licence relativement permissive : Apache 2.0. Il est proposé en quatre variantes, de 2,3 à 30,7 milliards de paramètres ; de quoi tourner sur une large gamme de terminaux.

C’est une annonce importante dans le monde des grands modèles de langage open source (y compris les poids) : Gemma 4 de Google (DeepMind). Ce n’est pas la première fois qu’un modèle open source sous licence Apache 2.0 est publié, mais c’est un mouvement intéressant de Google dans le secteur.

De 2,3 à 30,7 milliards de paramètres, avec une « mixture »

Quatre modèles Gemma 4 sont disponibles : E2B, E4B, 26B A4B et 31B. Ils proposent respectivement 2,3, 4,5 , 25,2 et 30,7 milliards de paramètres. A4B est un modèle Mixture of Experts (MoE) avec seulement 3,8 milliards de paramètres actifs pour chaque token.

Ils sont multimodaux, c’est-à-dire qu’ils « traitent les entrées de texte et d’image (l’audio est pris en charge sur les petits modèles) et génèrent des sorties de texte ».

Un MoE est un grand modèle dont seulement une partie est utilisée en inférence, réduisant les besoins en puissance de calcul. Afin de distinguer facilement les modèles, Google utilise une nomenclature spéciale au début du nom en fonction du nombre de paramètres : E pour effectifs, A pour actifs.

Les deux petits modèles de 2,3 et 4,5 milliards de paramètres ont une largeur de contexte de 128 000 jetons, contre 256 000 pour les deux autres. Gemma 4 dispose d‘un « mode de raisonnement intégré qui permet au modèle de réfléchir étape par étape avant de répondre ». La taille du dictionnaire est de 262 000 mots.

Il est capable d’analyser des images et des vidéos, propose une prise « en charge native de l’utilisation structurée des outils, permettant des workflows d’agent » et, c’est dans l’air du temps, la « génération, complétion et correction de code ». E2B et E4B disposent aussi d’une fonction de reconnaissance vocale.

Tous les détails se trouvent par ici. Google propose aussi des résultats de benchmarks maison et compare ses quatre modèles Gemma 4 à la version 27B (27 milliards de paramètres, sans raisonnement) de Gemma 3. Cette annonce intervient au moment même ou Anthropic a décidé de revoir sa gestion des comptes payants, avec le passage obligatoire via l’API pour les applications tierces.

Gemma 4 en open source passe sous licence Apache 2.0

Google propose ses modèles sous la licence Apache 2.0. Comme le rappelle Wikipédia, elle est « considérée comme permissive car elle accorde des droits étendus aux utilisateurs, tout en imposant relativement peu de restrictions […] D’autoriser la modification et la distribution du code sous toute forme (libre ou propriétaire, gratuit ou commercial) et, d’autre part, d’obliger le maintien du copyright lors de toute modification ».

Pour ses précédents modèles, Google utilisait une licence maison baptisée « Gemma Terms of Use ». Elle précise notamment « que Google se réserve le droit de restreindre l’utilisation de tout service Gemma que Google estime raisonnablement être en violation du présent accord ».

Google rejoint ainsi Mistral et son modèle 7B (septembre 2023), OpenAI avec gpt-oss-120b, ainsi que Qwen d’Alibaba, qui sont sous licence Apache 2.0. Avec ses modèles LLaM, Meta propose une « licence limitée », avec des restrictions.

Google met largement en avant le côté open source de Gemma 4 : « les modèles ouverts sont des systèmes d’IA dont les poids du modèle sont publiquement disponibles pour que n’importe qui puisse les télécharger, les étudier, les affiner et les utiliser sur son propre matériel (téléphones, ordinateurs, etc.) ». Un des avantages des modèles ouverts est en effet de pouvoir les faire tourner en local sur votre ordinateur, sans envoyer aucune donnée en ligne.

En fonction de la précision, la taille occupée en mémoire pour les modèles varie de 3,2 à près de 60 Go, laissant en effet entrevoir une large gamme d’appareils compatibles. Nous reviendrons prochainement avec quelques tutos pour installer des IA génératives en local.

☕️ Un Alsacien arrêté pour avoir évoqué le meurtre d’agents du renseignement à une IA

7 avril 2026 à 09:01


Après avoir évoqué son intention d’acheter une arme pour « tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI » au cours d’une discussion avec un outil d’intelligence artificielle, un Strasbourgeois de 37 ans s’est vu arrêté, chez lui, ce 3 avril.

Des enquêteurs du FBI, aux États-Unis, ont repéré le message et l’ont transmis à la plateforme française de signalement de contenu illicite Pharos, rapportent Les Dernières Nouvelles d’Alsace, puis le Raid est intervenu et a interpellé le suspect. Aucune arme n’a été retrouvée chez lui.

Suivi pour antécédents psychiatriques, il a en revanche été hospitalisé.

Illustration : Flock

Aux États-Unis, le recours à l’IA à des fins de surveillance de masse par les autorités fait largement débat, notamment depuis l’ultimatum imposé à Anthropic pour que l’entreprise lève les quelques restrictions d’usage de ses outils.

Comme l’entreprise a maintenu son refus de voir ses outils utilisés pour de la « surveillance intérieure de masse » (et pas pour de la surveillance extérieure) et des « armes complètement autonomes », le Pentagone s’est tourné vers son concurrent OpenAI.

Au Canada, après la tuerie de Tumbler-Ridge, OpenAI s’était retrouvé sous le feu des critiques pour ne pas avoir transmis aux autorités des informations relatives à Jesse Van Rootselaar. Si le compte de la tireuse avait été suspendu, la teneur de ses échanges avec ChatGPT n’avaient pas été relayés par l’entreprise, quand bien même ils décrivaient des scénarios de violence armée.

Les principaux modèles indiquent par ailleurs se tourner vers les forces de l’ordre en cas de nécessité. OpenAI précise par exemple dans ses spécifications de modèles recourir « à une surveillance automatisée pour détecter d’éventuelles violations de nos conditions d’utilisation » et, après examen par un humain, « saisir les autorités judiciaires dans les cas présentant une menace imminente de préjudice physique grave ou d’autres risques sérieux pour la sécurité publique ».

☕️ Dans sa lutte contre Epic, Apple se tourne de nouveau vers la Cour suprême

7 avril 2026 à 08:45


Il y a trois ans, Apple s’était tourné vers la Cour suprême (la plus haute juridiction des États-Unis) dans son différend avec Epic sur la commission de 30 % de son App Store. Quelques mois plus tard, elle bottait en touche en refusant d’intervenir, sans donner plus d’explication.

Ce n’était pas la fin de la guerre entre les deux entreprises, loin de là. Dernier événement en date, Apple a perdu en grande partie son appel contre Epic fin 2025, mais gardait tout de même la possibilité de faire payer des commissions « raisonnables » sur les paiements externes. Apple avait demandé au tribunal de revoir sa décision, mais les juges ont refusé à l’unanimité (pdf).

Comme le rapporte Engadget, Apple se tourne désormais vers la Cour suprême (pdf) pour lui demander « d’examiner quand et comment elle peut percevoir des commissions sur les achats mobiles effectués via des systèmes de paiement tiers ». L’entreprise demande aussi à la cour d’appel de suspendre sa décision, le temps que la Cour suprême se prononce.

portrait de Tim Cook façon Steve Jobs
Illustration : Flock

La 9ᵉ cour d’appel a cette fois-ci accepté la demande d’Apple et Epic voit rouge. Le père de Fortnite demande au tribunal de « réexaminer la décision d’aujourd’hui accordant la requête d’Apple pour suspendre l’exécution de la décision ».

« L’effort d’Apple pour suspendre l’exécution de la décision de cette Cour ne vise rien d’autre que gagner du temps », affirme Epic. Pour l’entreprise, cela « permet à Apple de continuer d’engranger des profits ». Dans ce climat tendu, ajoute Epic, « la plupart des développeurs réagissent à l’incertitude en s’abstenant » de proposer des alternatives.

Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

7 avril 2026 à 08:13
Phallometrics
Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

Anthropic, éditeur des modèles Claude, a annoncé dimanche un accord d’approvisionnement auprès de Google et de Broadcom destiné à renforcer ses infrastructures de calcul, principalement aux États-Unis. L’entreprise a dans le même temps affirmé avoir atteint 30 milliards de dollars de chiffre d’affaires projeté sur un an, contre 9 milliards de dollars en décembre dernier. Elle serait donc passée devant OpenAI.

Anthropic a profité du week-end de Pâques pour lâcher sa petite bombe à destination des marchés financiers et des investisseurs : au détour d’une communication relative à un nouvel accord pluriannuel avec Google et Broadcom, l’éditeur des modèles Claude a déclaré avoir atteint un volume d’activité suffisant pour pouvoir se projeter sur un chiffre d’affaires annualisé supérieur à 30 milliards de dollars.

Le montant annoncé témoigne d’une croissance aux allures d’exponentielle : Anthropic évoquait en effet une projection de chiffre d’affaires annuel de l’ordre de 9 milliards de dollars en décembre 2025. L’activité aurait donc été multipliée par plus de trois en seulement un trimestre.

« Lors de l’annonce de notre levée de fonds en série G en février, nous avions indiqué que plus de 500 entreprises clientes dépensaient chacune plus d’un million de dollars par an. Aujourd’hui, ce nombre dépasse les 1 000, soit le double en moins de deux mois », ajoute Anthropic. Annoncée le 12 février dernier, cette série G (septième tour de financement depuis l’amorçage) avait permis à l’entreprise de lever 30 milliards de dollars sur la base d’une valorisation de 380 milliards de dollars.

Un chiffre d’affaires annualisé supérieur à celui d’OpenAI ?

Si l’annonce d’Anthropic marque les esprits, c’est aussi et surtout parce que le chiffre d’affaires annuel projeté dépasse, pour la première fois, les indicateurs du grand concurrent OpenAI.

La firme dirigée par Sam Altman se montre généralement plutôt avare en matière de données financières, mais elle vient en effet elle aussi de donner une projection récente. Le 31 mars dernier, elle affirmait ainsi réaliser 2 milliards de chiffre d’affaires par mois, à l’occasion d’un point d’étape sur sa dernière levée de fonds en cours (au montant record de 122 milliards de dollars).

2 * 12, 24 milliards : le rythme actuel de chiffre d’affaires d’OpenAI révèle bien une projection inférieure aux chiffres avancés par son compétiteur.

Arithmétique floue

Dans cette bataille de chiffres superlatifs, il convient toutefois de noter que l’indicateur retenu par Anthropic est particulièrement flou. Dario Amodei et ses équipes parlent d’un run rate supérieur à 30 milliards de dollars par an. Or ce run rate est une extrapolation : on prend le chiffre d’affaires à un instant T, sur la période qui nous arrange, et on le multiplie par la constante nécessaire pour arriver à une projection sur douze mois.

Dit autrement, Anthropic pourrait avoir réalisé une particulièrement bonne journée le 5 avril, et décidé de multiplier ce chiffre d’affaires par 365 pour afficher, sans mentir, une projection annualisée très optimiste.

En face, OpenAI laisse entendre qu’il y a dans ses propres revenus une base de récurrence plus stable. « À la fin de 2024, nous générions 1 milliard de dollars par trimestre. Nous générons désormais 2 milliards de dollars de revenus par mois », écrivait l’entreprise dans son billet du 31 mars.

Du point de vue de l’utilisateur final, cette course à qui a le plus gros chiffre d’affaires n’a sans doute que peu d’intérêt, et l’on sera sans doute nettement plus sensible aux limitations que vient de mettre en place Anthropic autour des abonnements Claude pour encourager le recours aux API facturées au token.

La trajectoire du chiffre d’affaires, réelle ou projetée, intéresse en revanche vivement les investisseurs, soucieux de savoir si et quand OpenAI ou Claude pourront atteindre un volume d’activités suffisant pour compenser leurs faramineuses dépenses d’investissement. Le sujet est d’autant plus critique qu’on prête aux deux fondateurs, Dario Amodei et Sam Altman, l’intention d’introduire leur entreprise en bourse.

Anthropic renforce ses liens avec Google et Broadcom

En attendant, Anthropic revendique des liens consolidés avec les grands acteurs susceptibles de répondre à ses besoins en matière de calcul. L’entreprise indique en effet avoir signé de nouveaux accords avec Google et Broadcom, portant sur l’approvisionnement en TPU (puces dédiées à l’inférence IA) de nouvelle génération à compter de 2027. Elle ne donne aucun chiffre sur les sommes en jeu, la nature exacte de ces puces, ou l’éventuelle puissance électrique qui pourrait leur être nécessaire.

« La grande majorité des nouveaux serveurs seront situés aux États-Unis, ce qui fait de ce partenariat un élargissement majeur de notre engagement pris en novembre 2025 d’investir 50 milliards de dollars dans le renforcement de l’infrastructure informatique américaine », précise tout de même Anthropic. En octobre dernier, la société évoquait l’utilisation d’un million de TPU fournis par Google, principalement via l’offre cloud du géant de la recherche.

« Claude reste le seul modèle d’IA de pointe disponible pour les clients sur les trois plus grandes plateformes cloud du monde : Amazon Web Services (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry) », fait valoir Anthropic. Là encore, l’accent est mis sur un élément susceptible de rassurer les marchés. Dans un contexte d’incertitudes quant à la réalité des investissements promis en matière de datacenters, accentué par les conséquences de la guerre en Iran, la société fait valoir qu’elle est en mesure de s’appuyer sur les trois principaux hyperscalers du marché, quand OpenAI doit ménager les susceptibilités entre son actionnaire historique, Microsoft, et le principal participant à son dernier tour de table, Amazon.

☕️ Ventoy fête ses six ans et corrige un bug avec les distributions Linux immuables

7 avril 2026 à 07:32


C’est en effet le 5 avril 2020 que la première version de Ventoy a été mise en ligne, rapidement suivie d’une 1.0.01 pour corriger un vilain bug. Nous en parlions la même année avec la mise en ligne de la version 1.0.22. C’est pour rappel un outil permettant de créer des clés USB multi-ISO bootable, concurrent de Rufus.

La version 1.1.11 a été mise en ligne le 5 avril 2026 et signe donc le sixième anniversaire de l’application. Dans les notes de version, pas grand chose d’autre que des correctifs et autres améliorations, en plus de la prise en charge de KylinSecOS.

Un point important tout de même pour Ventoy2Disk.sh dont l’installation échouait « sur les distributions Linux immuables » : c’est désormais corrigé. Il s’agit de systèmes « où les fichiers principaux du système d’exploitation sont en lecture seule, empêchant ainsi les modifications involontaires ou malveillantes », explique Neowin. C’est le cas de Fedora Silverblue et openSUSE MicroOS, ajoutent nos confrères.

Pour télécharger Ventoy, c’est par ici.

❌