Vue normale

Face à la guerre informationnelle, le monde des médias cherche ses repères

9 avril 2026 à 16:13
« Ne sous-estimez pas la menace ! »
Face à la guerre informationnelle, le monde des médias cherche ses repères

Réunis à Tours pour les Assises du journalisme, journalistes et autres professionnels des médias ont débattu avec chercheurs, juristes et le public des manières de faire face à la dégradation accélérée de l’espace informationnel.

« Nous avons le sentiment d’être pris entre le marteau russe et l’enclume des États-Unis. » C’est par ces mots que Jean-Marc Four, directeur de Radio France Internationale (France Médias Monde), a résumé la situation face à laquelle se trouve la station de radio publique, qui diffuse « en 17 langues » et touche « chaque semaine plus de 100 millions de personnes dans le monde ».

Ce 8 avril, aux Assises du journalisme de Tours, Jean-Marc Four participait aux côtés d’une quinzaine d’experts des enjeux de l’information et de ses manipulations à un vaste débat sur « le journalisme face à la guerre informationnelle ». Et les constats qui y ont été dressés, comme le vocable employé le laisse deviner, intiment à l’adaptation rapide.

La veille, Donald Trump lançait un ultimatum à l’Iran, menaçant d’ « anéantir la civilisation iranienne » si le détroit d’Ormuz n’était pas rouvert dans la nuit. S’appuyant sur cet exemple, la chercheuse à l’institut de recherche stratégique à l’école militaire (IRSEM) Maud Quessard soulignait que pour les armées, il est évident depuis longtemps que la guerre n’est plus seulement physique, mais aussi numérique et informationnelle. Elle rappelait aussi que le paysage informationnel peut servir à « gagner la guerre sans la faire », en particulier « dans le cadre de guerres non ouvertes ». Ce mécanisme peut même passer par la manipulation des perceptions, pour « amplifier la perception des conflits en cours ».

En d’autres termes, lors de ces discussions comme de celles qui réunissaient professionnels de l’information et public tourangeau, la veille, pour un échange titré « la vérité selon Trump et ses conséquences », l’ambiance des Assises était à la recherche de nouveaux repères.

Soirée d’ouverture des Assises du journalisme : « La vérité selon Trump et ses conséquences » / Mathilde Saliou

La tâche n’est pas simple : au monde médiatique de trouver des manières de traiter l’information au mieux, dans un contexte toujours plus dégradé économiquement (y compris sous la pression de l’IA), tout en s’équipant face aux menaces croissantes que posent, pour le débat public, les tentatives d’ingérences étrangères et les manipulations réalisées depuis le territoire national. Au passage, au monde médiatique aussi (avec l’aide d’autres écosystèmes) de sensibiliser le grand public à l’état du conflit informationnel en cours.

Nécessaire autocritique médiatique

Soulignant « l’accélération technologique » qu’incarne notamment l’intelligence artificielle, notamment parce qu’elle permet de « fabriquer du faux plus vrai que vrai », le directeur de la publication de Ouest France François-Xavier Lefranc appelle les professions journalistiques et médiatiques à « faire leur autocritique ».


Il reste 62% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Le plan de l’État pour renforcer la cybersécurité des ministères d’ici la fin de l’année

9 avril 2026 à 14:15
Dans certains cas, il serait temps de s’y mettre…
Le plan de l’État pour renforcer la cybersécurité des ministères d’ici la fin de l’année

Depuis quelques années, les fuites de données s’enchainent à vitesse grand V et les institutions officielles ne sont pas épargnées. Le gouvernement vient de mettre en ligne sa feuille de route des efforts prioritaires en matière de sécurité numérique de l’État. Elle comporte une quarantaine d’actions à mettre en place cette année.

Dès son introduction, le document – validé en concertation interministérielle – revient sur « les multiples intrusions et fuites de données qui ont affecté en 2025 les systèmes d’information des ministères et des établissements dont ils ont la tutelle ». Ces failles et fuites rappellent, s’il en est besoin, « la persistance de vulnérabilités graves dans l’ensemble de ces infrastructures ». Le document du jour vise à y apporter une réponse…

Conseiller numérique obligatoire et anticipation de NIS 2

Premier point du document : renforcer la gouvernance. Chaque ministère devra ainsi désigner un conseiller numérique en charge de la cybersécurité « dans le mois suivant la nomination du ministre »… de quoi éviter des blancs en cas de changements a répétition. Les ministères devront aussi s’assurer que la cybersécurité soit bien prise en compte à tous les niveaux. Avant le 30 juin 2026, ils devront ainsi avoir formalisé « une politique d’audit et de contrôle des systèmes d’information ». La mise en œuvre est programmée pour le 31 décembre 2026.

En vue de NIS 2, qui va bien finir par passer le cap de l’Assemblée nationale un jour ou l’autre, la politique de sécurité des systèmes d’information de l’État devra être mise à jour, au plus tard au premier trimestre 2027, pour « intégrer en anticipation le référentiel de règles ayant vocation à s’appliquer aux entités essentielles que créera NIS 2 ».

Sur l’homologation des systèmes d’information, la feuille de route précise que « tout système faisant l’objet d’une migration sur le cloud devra être considéré comme un nouveau système d’information et donc faire l’objet d’une homologation ». Avec le cloud dominé par des acteurs américains, cela soulève aussi des questions de souveraineté. La qualification SecNumCloud de l’ANSSI permet de s’assurer de l’étanchéité aux lois extraterritoriales (notamment étasuniennes et chinoises), pour rappel.

Supply chain, mise à jour, authentification… rappel des basiques

C’est dans l’air du temps avec les attaques qui se multiplient contre la « supply chain », le document demande aux ministères de mettre en place, d’ici au 30 juin 2026, « une politique de contrôle de la chaîne d’approvisionnement ».

Sur la question des mises à jour, ils devront définir des procédures d’installation des correctifs de sécurité d’ici au 30 juin 2026 et les mettre en œuvre avant la fin de l’année. Il est aussi question de « renforcer l’authentification et la gestion des accès ».

Autre mesure importante (et on pourrait presque dire qu’il est temps) : « Mettre en place d’ici le 31 décembre 2026 une authentification multi-facteur de l’ensemble des administrateurs de systèmes d’information ». Avec la gestion des mises à jour, ce sont des points basiques, qui devraient déjà être en place… mais force est de constater qu’il reste encore du travail. Le détail des manquements détaillé par la CNIL suite à la fuite et condamnation de France Travail par CNIL (5 millions d’euros d’amende) en est une preuve.

La feuille de route prévoit aussi de déployer « des dispositifs avancés de détection des attaques (EDR ou XDR) sur l’ensemble des postes de travail et sur l’ensemble des serveurs » avant la fin de l’année. Les ministères doivent aussi tester au moins une fois par an les plans de reprise d’activité.

Après un incident important (dont la définition reste à préciser), le ministère impacté « aura pour obligation de suivre les recommandations de l’ANSSI, puis 6 mois après l’incident d’adresser un point de suivi à l’ANSSI, au corps d’inspection et au Premier ministre ».

Vincent Strubel, patron de l’ANSSI, rappelait dans son bilan de la cybermenace en 2025 une autre réalité : le facteur humain et le « mode legacy » parfois laissé en place pour calmer la grogne des anciens utilisateurs. Nous avons « probablement devant nous un phénomène de coupure un peu brutale des systèmes un peu obsolescents », affirmait Vincent Strubel.

À surveiller de près : DNS, messageries et quantique

La feuille de route cible ensuite les DNS et messageries, utilisés par les pirates « pour introduire des codes malveillants dans les systèmes d’information » de l’État. Là encore, la feuille de route prévoit une action en deux temps : renforcer avant le 30 septembre 2026 la sécurité des DNS, « notamment par un recours accru au service interministériel DNS », et celle des systèmes de messagerie avant le 31 décembre 2026.

Dernier point, préparer la transition vers la cryptographie post-quantique. Pour rappel, la question n’est pas tant de savoir si un ordinateur quantique capable de casser des systèmes de chiffrement verra le jour, mais quand il sera opérationnel avec suffisamment de qubits.

Il est donc demandé aux ministères de faire cette année l’inventaire « de leurs données durablement sensibles pour lesquelles une mise en place de la cryptographie post-quantique sera prioritaire »… en espérant qu’elles n’aient pas déjà fuité, sinon c’est déjà trop tard.

Ils devront ensuite « déployer de la cryptographie post-quantique pour tous les systèmes d’information traitant d’information à diffusion restreinte avant fin 2030 ». Enfin, à partir de 2030, « ne déployer que des produits de chiffrement qui intègrent de la cryptographie post-quantique ».

L’ANSSI aussi a dévoilé sa feuille de route sur le post quantique, avec deux échéances. À partir de 2027 tout d’abord, l’Agence n’acceptera plus en entrée de qualification des produits de sécurité qui n’intègrent pas une cryptographie résistante à l’ordinateur quantique. Puis, à partir de 2030, « on recommandera et on imposera le cas échéant de ne plus acquérir de telles solutions ».

Quoi qu’il en soit, le « suivi opérationnel de la mise en œuvre de la feuille de route 2026 - 2027 sera assuré chaque mois en Comité interministériel de suivi de la sécurité numérique (CINUS), qui réunit les chaînes de sécurité des systèmes d’information des ministères sous l’égide de l’ANSSI ».

☕️ Keychron publie les plans et les modèles 3D de ses claviers et souris

9 avril 2026 à 13:43


Spécialiste du clavier mécanique, Keychron fait un pas supplémentaire en direction de la communauté des makers avec la publication, sur GitHub, des modèles 3D utilisés dans la fabrication des principales références de son catalogue.

Pour la plupart de ses claviers, on peut ainsi télécharger les fichiers de CAO qui décrivent dans le détail la conception du boîtier, les découpes de la plate (la plaque située entre les commutateurs et le PCB), les spécifications des différents composants, etc.

Modèle 3D du Keychron Q10 – crédit Keychron

Selon les éléments concernés, Keychron propose des formats faisant office de standards industriels, a minima pour la visualisation, avec DXF (.dxf) ou DWG (.dwg) pour les plans, et STEP (.stp) pour la plupart des modèles 3D. Les internautes sont invités à enrichir le dépôt avec leurs propres contributions, qui peuvent prendre la forme de corrections apportées à des modèles existants, ou de configurations alternatives à celles commercialisées par Keychron.

« Nous pensons que la mise à disposition des fichiers matériels de production constitue une contribution significative à la communauté plus large du matériel et des claviers ! », se réjouit l’entreprise. Un élément manque toutefois à l’appel : Keychron ne partage pas le plan des PCB de ses claviers : sur ce volet électronique, les sources restent fermées.

Plan pour les découpes d’une plaque de clavier – crédit Keychron

Notons par ailleurs que si les sources de certains éléments matériels sont ouvertes, Keychron restreint explicitement la réutilisation commerciale : « Tous les fichiers de conception matérielle sont fournis exclusivement pour un usage personnel, éducatif et non commercial ».

Keychron avait déjà par le passé publié certains éléments de conception de ses claviers les plus populaires, mais sans étendre cet effort à l’ensemble de son catalogue comme ici (à l’exception de quelques modèles spécifiques comme son récent clavier céramique). L’entreprise exploite et collabore également de longue date à des firmwares ouverts comme QMK ou ZMK.

Diffusions d’images sexuelles : Pavel Durov accuse l’État profond, Soros et les médias

9 avril 2026 à 13:05
Pas content
Diffusions d’images sexuelles : Pavel Durov accuse l’État profond, Soros et les médias

Sur X, l’entrepreneur Pavel Durov a réagi au dernier rapport de l’ONG AI Forensics en recourant à des schémas complotistes. L’étude décrit comment des réseaux de diffusion non consentie d’images à caractère sexuel tirent profit financier et social du fonctionnement de Telegram. La communication de Durov diffère largement des éléments initialement transmis par l’entreprise à Next.

« L’état profond européen nous dit (via des médias d’État et des NGO financées par Soros) que Telegram est un PROBLEME parce que des gens peuvent échanger des contenus d’AUTRES réseaux sociaux dans des groupes telegram PRIVES. Ces absurdités servent à justifier la surveillance (Chat Control) et la censure (DSA). »

C’est sur ce ton agressif, et ce recours à une idée (celle de l’État profond) et un nom (celui de George Soros) devenus classiques dans la complosphère que Pavel Durov a réagi sur X au travail de l’ONG AI Forensics. Ce 8 avril, cette dernière publiait un long rapport détaillant le fonctionnement des réseaux de partage et de diffusion d’images non consenties à caractère sexuel en Italie et en Espagne, très actifs sur Telegram.

Dans ses différents rapports annuels, l’ONG mentionne effectivement l’Open Society Foundations, réseau de fondations financées par le milliardaire George Soros, parmi d’autres sociétés philanthropiques qui participent à son financement. Depuis 2024, AI Forensics s’appuie par ailleurs sur deux contrats signés avec la Commission européenne (en collaboration avec d’autres organisations de la société civile) dans le cadre de l’application du règlement sur les services numériques (DSA).

Une communication bien plus agressive qu’au départ

Le tweet de Pavel Durov évoquant un « état profond » n’est en réalité que le premier d’une série de trois. En un thread qui vise à instiller le doute sur la qualité du travail mené par l’ONG, le fondateur de Telegram attaque aussi différents médias européens qui se sont fait l’écho du rapport, citant surtout une volée de médias français (l’AFP, Le Parisien, France 24, Ouest France et Le Figaro).


Il reste 70% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

S3 Files : Amazon transforme les buckets S3 en système de fichiers

9 avril 2026 à 12:10
S3 Files : aux frontières du stockage, les données sont ailleurs
S3 Files : Amazon transforme les buckets S3 en système de fichiers

Amazon Web Services vient d’annoncer le lancement de S3 Files, « un nouveau système de fichiers qui connecte de manière transparente n’importe quelle ressource de calcul AWS à Amazon Simple Storage Service (S3) ». Cette solution utilise d’autres technologies Amazon (EFS par exemple) et ne fonctionne donc que sur le S3 d’Amazon, pas avec d’autres stockages « S3 compatibles ».

S3 est, pour rappel, du stockage objet lancé par Amazon il y a 20 ans et qui est depuis devenu un standard de fait largement utilisé à travers le monde. Next utilise du S3 par exemple pour le To de stockage offert avec votre abonnement (et plus en fonction de votre ancienneté). S3 a beau être lancé par Amazon, le stockage maison S3 déployé par les hébergeurs sur leur propre infrastructure ne dépend d’aucune manière d’Amazon, qui n’a donc aucun accès aux données.

Revenons au fonctionnement du stockage S3, qui utilise des objets et des buckets. Un objet représente n’importe quel type de donnée (texte, vidéo…) et les objets sont réunis dans des conteneurs appelés buckets. Pour aller plus loin, nous avons pour rappel publié un dossier complet sur l’histoire et le fonctionnement de S3.

Stockage S3 vs système de fichiers : des différences fondamentales

Le fonctionnement du stockage S3 est différent des systèmes de fichiers classiques sur plusieurs points, comme le rappelle Sébastien Stormacq d’AWS dans le billet d’annonce de S3 Files : « Mon analogie préférée était de comparer des objets S3 à des livres dans une bibliothèque (on ne peut pas modifier une page, il faut remplacer tout le livre) alors que des fichiers sur votre ordinateur peuvent être modifiés page par page ». Pour modifier quelques octets dans un objet de 5 Go, il faut réécrire la totalité des données.

Selon l’entreprise, son nouveau service est le premier à « offrir un accès complet et performant à vos données S3 par un système de fichiers ». Les modifications faites sur la version système de fichiers sont automatiquement répercutées dans le bucket S3 (et vice-versa), avec des contrôles sur la synchronisation. S3 Files peut être associé à plusieurs ressources, « permettant le partage de données entre les clusters sans duplication ».

Les buckets S3 sont ainsi accessibles depuis Elastic Compute Cloud (EC2), Container Service (ECS), Kubernetes Service (EKS) et des fonctions AWS Lambda. Dans sa foire aux questions, Amazon précise que seuls les « general purpose buckets » sont compatibles avec S3 Files, pas les Tables, Vectors ou « directory buckets ».

S3 Files surfe sur NFS 4.1 et utilise POSIX

Les objets S3 sont accessibles « sous forme de fichiers et de répertoires, prenant en charge toutes les opérations du Network File System (NFS) v4.1 + telles que la création, la lecture, la mise à jour et la suppression de fichiers ». Amazon ajoute que « S3 Files utilise les permissions POSIX pour les fichiers et les répertoires ».

Ce n’est pas juste une présentation sous la forme d’une arborescence comme peuvent déjà le faire des clients S3, mais un changement plus en profondeur pour avoir un « vrai » système de fichiers, avec la gestion qui va avec. L’accès simultané à des données est géré avec une cohérence NFS close-to-open.

Amazon revendique des performances élevées avec son S3 Files, qui est basé sur Amazon Elastic File System (EFS) avec une latence de l’ordre de la milliseconde pour les données actives, c’est-à-dire celles déjà présentes dans le cache de S3 Files.

La synchronisation peut prendre « quelques minutes »

Attention, par contre à la synchronisation des données avec S3 qui prend du temps, comme l’indique AWS dans son exemple : « Lorsque je fais des mises à jour de mes fichiers dans le système de fichiers, S3 gère et exporte automatiquement toutes les mises à jour sous forme de nouvel objet ou de nouvelle version d’un objet existant dans mon bucket S3 en quelques minutes. Les modifications apportées aux objets du bucket S3 sont visibles dans le système de fichiers en quelques secondes, mais peuvent parfois prendre une minute ou plus ».

S3 Files utilise AWS Identity and Access Management (IAM) pour la gestion des contrôles d’accès et du chiffrement, avec TLS 1.3 lors du transit et un chiffrement au repos via Amazon S3 managed keys (SSE-S3) ou une clé de l’utilisateur avec AWS Key Management Service (KMS). Le billet de blog donne des exemples et des détails techniques. De la documentation est disponible par là.

S3 Files est dès à présent disponible dans toutes les régions AWS. Le service n’est évidemment pas gratuit : « Vous payez pour la portion de données stockée dans votre système de fichiers S3, pour les opérations de lecture de petits fichiers et toutes les opérations d’écriture sur le système de fichiers, ainsi que pour les requêtes S3 lors de la synchronisation des données entre le système de fichiers et le bucket S3 ». Les tarifs sont détaillés sur cette page (en anglais seulement pour le moment).

Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

9 avril 2026 à 10:22
On m'a dit de venir, pas de venir avec des bagages, pourquoi ?
Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

Le Sénat a voté mercredi 8 avril à l’unanimité la proposition de loi visant à instaurer une présomption d’utilisation de contenus culturels protégés par un droit d’auteur au niveau des éditeurs d’IA. Le texte, qui doit maintenant passer à l’Assemblée nationale, inverse donc le rapport de force, puisqu’en cas de contentieux, ce sera aux acteurs de la tech de prouver qu’ils n’ont pas exploité un contenu de façon illicite.

Beaumarchais a une nouvelle fois été convoqué sous les ors de la République mercredi 8 avril, lors des débats du Sénat autour de la proposition de loi « relative à l’instauration d’une présomption d’utilisation des contenus culturels par les fournisseurs d’intelligence artificielle ». Et les défenseurs du droit d’auteur n’ont pas été déçus, puisque l’article unique du texte a été adopté à l’unanimité, au terme d’une séance de débat plutôt consensuelle : le soutien à l’innovation ne doit pas se faire au détriment de la création culturelle et cette dernière doit être rémunérée à sa juste valeur dès lors qu’elle est exploitée.

Inverser la charge de la preuve pour forcer la transparence

Le texte adopté en première lecture dispose que, sauf preuve contraire, une œuvre protégée par un droit d’auteur ou un droit voisin « est présumée avoir été utilisée par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».

Autrement dit, si un ayant droit estime qu’une œuvre a été utilisée par un modèle (par exemple, parce qu’un chatbot est capable de citer des extraits d’un livre), c’est à l’opérateur de l’IA en question qu’il appartiendra de prouver qu’il n’a commis aucune utilisation irrégulière. Le texte instaure donc une inversion de la charge de la preuve, en instaurant une présomption d’exploitation.

« Ce ne sera plus au créateur de prouver le moissonnage de son œuvre, mais au fournisseur d’IA de prouver qu’il ne l’a pas utilisée. Notre objectif n’est pas de multiplier les procès, mais d’inciter les acteurs de l’IA à abandonner certains comportements de prédation pour un modèle fondé sur la transparence et la négociation. Aujourd’hui, les créateurs ne négocient pas ; ils subissent », a fait valoir en séance la sénatrice Agnès Evren (LR), auteure de la proposition de loi.

Elle a par ailleurs pris soin d’affirmer que ce renversement avait été validé par le Conseil d’État, et souligné que l’esprit de la proposition de loi rejoignait les recommandations formulées dans le récent rapport d’Alex Voss voté le 11 mars dernier au Parlement européen. Dans son texte, celui-ci invite en effet Bruxelles à « proposer l’établissement d’une présomption réfragable », mais il restreint cette dernière aux cas de non-respect d’un certain nombre d’obligations de transparence.

Le Sénat français va donc un cran plus loin, arguant du principe que ce renversement est indispensable pour contraindre les éditeurs d’IA à faire preuve d’une vraie transparence sur leurs données d’entraînement. « On nous oppose souvent le secret des affaires, ce bouclier dont les entreprises d’IA usent et abusent. Or si l’algorithme relève du secret industriel, les données pour le nourrir sont le fruit du travail d’autrui. La transparence n’est pas une menace pour l’innovation, c’est la condition de l’acceptabilité sociale de l’IA », a défendu Catherine Morin-Desailly (Union centriste).

Représenté par ses ministres de la Culture et de l’Intelligence artificielle et du numérique, le gouvernement a pour sa part tenu une position plus nuancée.

« Le Gouvernement partage l’objectif du mécanisme proposé par la commission, mais le contentieux ne peut pas constituer notre unique horizon, car il entraîne des risques : judiciarisation excessive, insécurité juridique prolongée, multiplication des procédures. Mieux vaut un bon accord qu’un mauvais procès », a prudemment avancé Catherine Pégard, ministre de la Culture.

Anne Le Hénanff, ministre déléguée chargée de l’intelligence artificielle et du numérique, a quant à elle plus fermement défendu le point de vue des acteurs de la tech :

« Avec une telle présomption, l’entreprise devra apporter la preuve négative de l’utilisation de données culturelles, via l’analyse de dizaines de téraoctets de données ; c’est tout simplement impossible ! Tous les acteurs économiques qui ont développé des modèles d’IA – entreprises du CAC 40, TPE-PME, start-up – risqueraient un contentieux, ce qui serait dévastateur pour notre économie ».

Elle aussi appelle à privilégier la négociation au contentieux, en s’engageant à soutenir « toutes les initiatives contractuelles entre les acteurs de l’IA et ceux de la culture », ainsi qu’à participer aux évolutions à venir du cadre européen, « car c’est en agissant au bon niveau que nous obtiendrons la sécurité juridique nécessaire ».

Négocier, mais autour de quelle table ?

L’attente est-elle entendable du point de vue des ayants droit, alors que les illustrations d’utilisation à grande échelle de contenus protégés se multiplient ? Dans le sillage du procès ouvert aux États-Unis contre Meta pour entraînement de ses modèles sur les contenus de la bibliothèque clandestine LibGen, plusieurs articles de Mediapart ont montré ces derniers mois le recours à des contenus protégés par l’entreprise française Mistral AI.

Plus récemment, une nouvelle enquête, publiée le 6 avril, démontre que des centaines de milliers d’ouvrages ou d’articles scientifiques accompagnés de la mention « tous droits réservés » figurent dans l’immense jeu de données finepdfs hébergé sur Hugging Face.

Au-delà de sa dimension contentieuse, la proposition de loi serait, dans ce contexte et pour ses promoteurs, un accélérateur visant à sortir du statu quo dont profitent les acteurs de l’IA.

« Il y a urgence, car le pillage continue. J’ai l’impression que quand on montre un peu de fermeté, certains, qui s’y refusaient, viennent à la table des négociations », estime Max Brisson (LR). Avec, déjà, des effets positifs, selon Laure Darcos (groupe Les indépendants), rapporteure du texte :

« Notre mécanisme, juridiquement solide et politiquement efficace, produit d’ores et déjà ses effets : le PDG de Mistral AI a proposé une contribution des entreprises d’IA en fonction de leur chiffre d’affaires pour accéder aux contenus protégés. »

Reste à voir si cette déclaration d’intention suffira à faire pencher la balance lors de l’examen du texte à l’Assemblée nationale.

Muse Spark, le nouveau pari IA de Meta pour faire oublier Llama

9 avril 2026 à 08:36
Time is running out
Muse Spark, le nouveau pari IA de Meta pour faire oublier Llama

Avec Muse Spark, son nouveau grand modèle de langage (LLM), Meta joue gros. Il s’agit non seulement de faire oublier l’échec de Llama, la précédente génération de LLM maison, mais aussi de justifier l’investissement maousse costaud dans le labo dédié à la « superintelligence ».

Llama 4, lancé il y a quasiment un an jour pour jour, n’a pas été le succès tant espéré par Mark Zuckerberg qui veut sa part du gâteau de l’IA générative. Pire encore, des soupçons de triche dans plusieurs benchmarks ont définitivement entaché la réputation du grand modèle de langage. Un affront pour le patron de Meta, qui digère toujours l’échec de sa stratégie du métavers.

Une muse pour le cerveau de Meta AI

Hauts les cœurs et les portefeuilles : loin de se laisser abattre par le flop de Llama, Meta a mis la main à la poche pour s’offrir la crème de la crème des spécialistes de l’IA. Débauchés dans toute l’industrie de la tech, ils ont à leur tête Alexandr Wang, l’ancien dirigeant de Scale AI, dont le géant des réseaux sociaux a pris le contrôle l’été dernier en échange de 14,3 milliards de dollars. Pour se transformer en place forte de l’IA, Meta a même laissé partir des vétérans, comme son directeur scientifique Yann LeCun.

Ces experts, regroupés au sein du « Meta Superintelligence Lab » (MSL), planchent sur la nouvelle marotte de Mark Zuckerberg, la « personal superintelligence ». Un concept pour le moins flou censé « aider l’humanité à accélérer sur la voie du progrès », expliquait le CEO dans un mémo. « Plus important encore, la superintelligence pourrait ouvrir une nouvelle ère d’émancipation individuelle, où chacun disposerait d’une plus grande liberté d’action pour améliorer le monde selon ses propres choix », poursuivait-il.

Les grands discours sont une chose, la réalité en est une autre. La première réalisation concrète du MSL est baptisée Spark, premier LLM de la nouvelle famille Muse dont l’ambition se limite, si on peut dire, à alimenter le moteur IA de l’assistant du groupe. Présent dans l’application mobile Meta AI et en ligne à l’adresse meta.ai – aux États-Unis pour commencer –, le modèle se veut résolument utile.

L’utilisateur de Meta AI pourra par exemple obtenir un itinéraire complet pour un voyage familial en Floride, avec l’aide des sous-agents de Muse Spark : le premier va établir le parcours, le second va comparer plusieurs lieux, un troisième s’occupe de trouver des activités pour les minots. 

Tant qu’on a la santé

Avec ses capacités multimodales, le modèle peut « lire » une image et donner des informations sur les objets présents. Voilà qui n’a rien de franchement révolutionnaire, la plupart des IA grand public offrant le même type de fonctionnalités.

Pour tirer son épingle du jeu, Meta met en avant un aspect singulier de la perception multimodale de Muse Spark : son utilité dans le domaine de la santé. Meta AI serait ainsi en mesure de répondre de manière détaillée à des questions de santé, « y compris pour certaines questions impliquant des images et des graphiques ».

Feriez-vous vraiment confiance à une IA pour calculer des calories ?

Le secteur de la santé a été investi par les grands acteurs de l’IA : Anthropic, OpenAI, Microsoft et Perplexity se sont tous lancés avec des déclinaisons « Health » de leurs chatbots. Et le moins qu’on puisse dire, c’est qu’il vaut mieux éviter de remplacer son médecin traitant par ces versions IA pour le moment…

Meta veut placer ses muses partout

Muse Spark se veut tout aussi doué pour générer de petits jeux que pour le lèche-vitrine virtuel ou trouver des adresses de lieux sympas à découvrir (gare aux hallucinations tout de même). Ce n’est que le début, prévient Meta : « Attendez-vous à des résultats plus riches et plus visuels, avec des Reels, des photos et des publications directement intégrés aux réponses, tout en créditant leurs créateurs ». L’AI slop a encore de beaux jours devant elle.

À terme, Muse Spark va se faire une petite place dans les autres produits et services de Meta : Facebook, Instagram, Messenger, WhatsApp ainsi que dans les lunettes connectées. L’entreprise compte aussi proposer son LLM à des tiers, mais au travers d’un « aperçu privé » sous la forme d’une API limitée à quelques partenaires triés sur le volet. Meta espère être en mesure d’ouvrir les futurs modèles Muse à l’open source. Google a pris ce virage avec Gemma4 annoncé la semaine dernière.

Ce premier modèle, qualifié de « petit et rapide », se décline en deux moutures, Instant pour les réponses rapides et Thinking quand il est nécessaire de se creuser un peu le ciboulot. Selon Meta, « les résultats sont sans équivoque : nous pouvons atteindre les mêmes performances avec un ordre de grandeur en moins [généralement cela fait référence à un rapport de 10x moins, ndlr] sur la puissance de calcul par rapport à notre modèle précédent, Llama 4 Maverick ». Un troisième mode, Contemplating, saura orchestrer plusieurs agents raisonnant en parallèle ; il sera déployé progressivement dans meta.ai.

Au vu des benchmarks fournis par Meta, le MSL a effectivement soigné les fonctions multimodales, Muse Spark surclassant la concurrence sur l’interprétation des images, des graphiques et des interfaces ; le contraire aurait été étonnant dans des benchmarks mis en avant par Meta.

C’est plus inégal sur les tâches de raisonnement pur (logique, maths), tandis que le modèle se débrouille plutôt bien en code, sans être leader incontestable. Il affiche également une vraie spécialisation dans le domaine de la santé. Meta admet des « gaps » de performance dans les systèmes agentiques et les flux de coding.

Sur le plan de la sécurité, Meta ne livre pas encore de rapport de sécurité complet, mais assure que Muse Spark adopte un comportement de refus « robuste » dans des domaines à haut risque (armes chimiques et biologiques). L’entreprise promet également que le modèle n’a pas présenté de capacités autonomes ni de « tendances dangereuses » qui lui permettraient de mettre en œuvre des scénarios de menace dans le domaine de la cybersécurité.

Muse Spark peut s’enorgueillir d’avoir décroché le plus haut niveau de « conscience de l’évaluation » observé à ce jour parmi les modèles testés par le labo indépendant Apollo Research. Mark Zuckerberg en est persuadé : les futurs modèles Muse permettront à Meta de créer des services qui ne se contentent pas de répondre aux questions, mais d’agir aussi comme des agents « capables d’effectuer des tâches à votre place ». Il se dit convaincu que ses LLM soutiendront « une vague de créativité, d’entrepreneuriat, de croissance et d’amélioration de la santé. »

☕️ #LIDD Mario Kart World en version Guessr

9 avril 2026 à 07:38


Vous connaissez Mario Kart, la course de voitures version Nintendo. Mario Kart World, lancé en juin 2025, est le neuvième et actuellement dernier épisode de la franchise. « Une première dans l’histoire de la série, le jeu prend place dans un monde ouvert où tous les circuits sont interconnectés », rappelle Wikipédia.

Vous connaissez aussi certainement GeoGuessr, un jeu (lancé en 2013 et basé sur Google Maps) dans lequel il faut trouver l’endroit où l’on se trouve dans le monde à partir d’une image. Voici le mariage entre les deux avec Mario Kart World Guessr, de Mario Universalis.

Le principe est simple : une photo s’affiche et vous devez trouver son emplacement au plus près sur la carte, pour marquer jusqu’à 5 000 points par photo. Ce jeu est sorti durant l’été dernier avec une publication sur Reddit pour l’annoncer, mais il est remonté à la surface suite à un message publié par Nintendojo.

Que la bataille commence ! Pour lancer une partie de Mario Kart World Guessr c’est par ici.

MacBook Neo : un succès monstre qui complique la tâche d’Apple

9 avril 2026 à 06:46
Le juste prix, ou un prix trop juste ?
MacBook Neo : un succès monstre qui complique la tâche d’Apple

Avec son prix serré et une fiche technique solide, le MacBook Neo a, semble-t-il, trouvé son public. Sauf que maintenant, Apple doit composer avec le succès : le stock de puces s’épuise et les coûts grimpent en flèche.

Le MacBook Neo est une anomalie non seulement dans le catalogue d’Apple (qui s’attaque de front au marché de l’ordinateur portable d’entrée de gamme), mais aussi pour le reste de l’industrie. Cette machine à la fiche technique somme toute solide détonne en effet, au vu de l’explosion des prix de la mémoire. Et dans ce contexte, le constructeur parvient à la proposer à 699 euros… on a presque envie d’ajouter « seulement ».

Un problème de riche pour Apple

Pendant que les autres constructeurs se grattent la tête pour esquisser une alternative robuste au MacBook Neo, Apple serait maintenant confrontée à un problème de riche. La demande serait si forte que les stocks de l’ordinateur auraient fondu : sur l’Apple Store en ligne, il faut désormais attendre de 2 à 3 semaines avant de recevoir une commande. Mais produire de nouvelles unités n’est pas aussi simple que d’appuyer sur un bouton vert.

Pour réduire la facture des composants de son petit MacBook, Apple a pioché dans son large répertoire. Ainsi, la puce A18 Pro qui bat sous le capot de la machine n’est autre que la puce de l’iPhone 16 Pro de l’an dernier. Enfin, presque.

Le circuit graphique de la puce du MacBook Neo se contente en effet de 5 cœurs, contre 6 cœurs dans l’iPhone 16 Pro. Apple exploite ici une technique déjà mise en œuvre dans plusieurs autres de ses produits « bon marché » (tout est relatif) : le binning. Toutes les puces A18 Pro ne sont pas nées égales, il peut arriver à TSMC de produire des wafers présentant des défauts. Plutôt que de jeter les puces défectueuses, Apple les recycle dans d’autres appareils, ce qui est d’ailleurs une pratique commune dans toute l’industrie des processeurs.

Tim Culpan, un ancien de Bloomberg qui a manifestement conservé des sources au sein de la chaîne d’approvisionnement d’Apple, rapporte dans sa dernière newsletter que la commande initiale d’Apple auprès de Quanta et Foxconn était de 5 à 6 millions d’unités.

Le problème, c’est qu’avec une si forte demande, le stock de puces A18 Pro destinées au MacBook Neo serait au plus bas. L’A18 Pro de l’ordinateur est (ou était) fabriquée selon le node N3E (3 nm) de TSMC. Si Apple veut relancer la ligne de production de cette puce, il va falloir glisser un petit billet ou deux pour couper la file d’attente. C’est toujours possible, mais les marges du constructeur risquent d’y laisser quelques plumes. 

Apple peut également puiser dans les wafers prévus à l’origine pour d’autres appareils, mais la question du coût se pose là encore. L’A18 Pro du MacBook Neo n’est pas « gratuite », mais c’est du recyclage intelligent de silicium qui aurait sinon pu finir à la poubelle. Relancer une production est une toute autre affaire, ce d’autant qu’il faudrait désactiver un des cœurs GPU de ces puces pour que la fiche technique du portable reste dans les clous.

La question centrale du prix

À cela s’ajoutent d’autres coûts : les prix de la mémoire vive, le stockage SSD, et même de l’aluminium ne cessent de grimper. Apple a une puissance de feu telle qu’elle parvient à obtenir de ses fournisseurs des tarifs plus intéressants pour ces composants, mais il n’empêche qu’ils coûtent plus cher aujourd’hui qu’hier.

Pour s’en sortir sans trop grignoter ses précieuses marges, Apple peut toujours relever le prix du MacBook Neo. Mais ce serait contre-productif, car l’étiquette du portable est son principal atout, très mis en avant dans le marketing du groupe. L’entreprise peut aussi décider d’arrêter de vendre le modèle à 699 euros (256 Go) pour ne plus proposer que la version mieux équipée (512 Go et Touch ID) à 799 euros. Mais là encore, ça ferait perdre de l’intérêt à cette gamme pensée pour séduire les petits budgets.

La dernière échappatoire serait de faire le dos rond, d’accepter de perdre des ventes, et d’accélérer la production de la future génération du MacBook Neo. Selon Tim Culpan, Apple prépare un modèle équipé d’une puce A19 Pro, la même que celle des iPhone 17 Pro, qui intègre 12 Go de mémoire unifiée (contre 8 Go pour l’A18 Pro). Il s’attend à ce que le constructeur reprenne la même stratégie, en utilisant des A19 Pro contenant un GPU avec 5 cœurs actifs, au lieu de 6 habituellement. Ce nouveau modèle serait lancé l’année prochaine mais qui sait, peut-être qu’il faudra aller plus vite.

Microsoft a bloqué les comptes des développeurs de VeraCrypt, WireGuard et Windscribe

9 avril 2026 à 06:00
Les mises à jour restent au garage
Microsoft a bloqué les comptes des développeurs de VeraCrypt, WireGuard et Windscribe

Il y a quelque chose qui coince chez Microsoft. Les développeurs de VeraCrypt, WireGuard et Windscribe ont subi une suspension de leur compte, sans réelle explication de la part de l’éditeur. Résultat : impossible de livrer des mises à jour. La situation devrait heureusement se résoudre très bientôt, suite à l’intervention d’un vice-président de Microsoft.

Mise à jour, 10/04 — Tout finit par s’arranger pour le mieux. Mounir Idrassi, le développeur de VeraCrypt, nous a en effet informé que son accès au portail Microsoft Partner Center a été rétabli suite à l’intervention de Scott Hanselmann. C’est aussi le cas pour Windscribe et pour WireGuard.

Article original, 9/04 — Mauvaise surprise pour les développeurs du logiciel de chiffrement VeraCrypt et du protocole VPN WireGuard, deux applications open source. Visiblement sans crier gare, Microsoft a suspendu leur compte. « Microsoft a résilié le compte que j’utilisais depuis des années pour signer les pilotes Windows et le bootloader », déplore Mounir Idrassi, l’auteur de VeraCrypt.

Microsoft aux abonnés absents

Il n’a reçu « aucun email ni avertissement préalable », affirme-t-il dans un message sur SourceForge remontant au 30 mars. Contacté par Next, il indique simplement qu’il « doit donc y avoir une nouvelle politique chez Microsoft », mais il regrette amèrement le « manque de transparence et de communication de la part de Microsoft »

Même discours ce 8 avril chez Jason A. Donenfeld, créateur et animateur principal de WireGuard. « Un jour, je me connecte pour publier une mise à jour et là, catastrophe : compte suspendu», décrit-il sur le forum de Hacker News.

Dans les deux cas, les développeurs n’ont personne vers qui se tourner chez Microsoft. « Je n’ai obtenu que des réponses automatisées et des bots. Je n’ai pas réussi à joindre un interlocuteur humain », regrette Mounir Idrassi.

Conséquences directes : impossible de publier des mises à jour

Dans les deux cas, les conséquences sont identiques : impossible de publier des mises à jour, ce qui est particulièrement problématique en cas de faille de sécurité. « Imaginez qu’il y ait une faille critique d’exécution de code à distance dans WireGuard, exploitée activement, et que je doive mettre à jour immédiatement (c’est purement hypothétique, pas de panique !) », explique Jason A. Donenfeld. « Dans un cas comme celui-là, Microsoft me laisserait avec les mains entièrement liées. »

Pour VeraCrypt, les mises à jour pour Linux et macOS restent possibles, mais Windows est la plateforme utilisée par la majorité des utilisateurs. Cette suspension de compte est « un coup dur pour le projet », et elle a « des conséquences sur mon activité professionnelle quotidienne », indique son développeur. Il précise à TechCrunch que pour le moment l’utilitaire continue de fonctionner normalement, et qu’aucune faille de sécurité n’a été identifiée récemment.

Si la situation devait rester en l’état, les utilisateurs de VeraCrypt ayant activé le chiffrement de leur système d’exploitation risquent de rencontrer un vrai gros problème à partir de cet été, prévient Mounir Idrassi : « Microsoft va révoquer l’autorité de certification qui a été utilisée pour signer le bootloader de VeraCrypt ». 

Une nouvelle certification Microsoft est nécessaire pour que le bootloader puisse continuer de fonctionner, mais sans accès à son compte, le développeur ne pourra pas appliquer cette nouvelle signature. Résultat : le démarrage de Windows chiffré avec VeraCrypt sera impossible. C’est l’équivalent d’« une condamnation à mort ».

Enfin un signe de vie

VeraCrypt et WireGuard ne sont pas les deux seuls dans cette panade. Le service VPN Windscribe a lui aussi subi une suspension de son compte Microsoft (vérifié depuis plus de 8 ans, selon l’éditeur). Mais dans ce dernier cas, l’éditeur a donné un signe de vie. Scott Hanselmann, vice-président de Microsoft et membre de l’équipe technique GitHub, a en effet répondu sur X que le problème devrait être réparé « sous peu ». 

En plus de Windscribe, le dirigeant a contacté Jason A. Donenfeld et Mounir Idrassi, ce que le développeur de VeraCrypt a confirmé auprès de Next. Il attend désormais de voir la suite qui sera donnée à son dossier :

« Le principal problème reste toutefois le manque de transparence et de communication de la part de Microsoft. J’ai été choqué de lire dans la notification affichée sur mon compte qu’aucun recours n’était possible ! […] Il s’agissait simplement d’un problème de communication et de vérification [selon Scott Hanselmann], mais il devrait y avoir une communication claire pour avertir les auteurs de ce type de situation. »

On peut espérer que la situation se débloque pour tout le monde rapidement. Dans sa réponse à Windscribe, Scott Hanselmann pointe vers un billet de blog du Hardware Dev Center remontant au 1ᵉʳ octobre 2025. Microsoft y détaille une nouvelle exigence de vérification de compte pour tous les partenaires du programme matériel Windows qui n’auraient pas complété l’opération de vérification depuis avril 2024. Ce programme s’occupe aussi de la certification des pilotes logiciels.

Le processus de vérification devait être effectué sous les 30 jours, à compter du 16 octobre 2025. Microsoft a mis à jour le billet le 3 mars : la vérification des comptes pour le programme a pris fin. « Les comptes qui n’ont pas finalisé avec succès cette vérification et ont reçu un statut « rejeté » ont été suspendus du programme Windows Hardware, et les soumissions provenant de ces comptes ne sont plus autorisées », ajoute l’entreprise.

Microsoft : « Tout est en train d’être corrigé »

Windscribe ne décolère pas : « Nous essayons de résoudre cela depuis plus d’un mois, et nous n’avançons pas. Le support est inexistant. Quelqu’un connaît-il un humain avec un cerveau qui fonctionne encore chez Microsoft et qui pourrait aider ? ». Le bruit engendré par cette affaire fait bouger les choses.

Il y a quelques heures à peine, Windscribe affirmait que « certaines personnes bienveillantes chez Microsoft ont pris contact et apparemment, cela est en cours de résolution ». Cette nuit toujours, Scott Hanselman ajoute avoir parlé à Mounir Idrassi et Jason Donenfeld : « Tout est en train d’être corrigé pendant qu’on parle ».

Quoi de neuf à la rédac’ de Next ? L’arrivée d’un nouveau journaliste !

8 avril 2026 à 15:47
« +1 » + « +1 », ça fait déjà +2 !
Quoi de neuf à la rédac’ de Next ? L’arrivée d’un nouveau journaliste !

Trois ans après le rachat de Next par moji, le site et l’équipe continuent de se renforcer ! Une nouvelle plume rejoint la rédaction. Nous sommes désormais huit à vous proposer des contenus sur Next.

+ 1 dans la rédac’

Vous faisiez quoi le 23 mars à 19h17 ? Ferd, en toute détente, annonçait du nouveau à venir sur Next avec une « bonne surprise ». Ne feignez donc pas la surprise ce matin de voir une nouvelle plume – Mickaël Bazoge – signer des articles sur Next. Bonne nouvelle, il rejoint Next à temps plein à partir de cette semaine. Pour commencer, bienvenue !

Mickaël… ce prénom vous parle ? Rien d’étonnant, il a passé quelques années chez MacG puis chez 01Net (groupe Keleops) ; cela fait une vingtaine d’années qu’il parle de la tech, sous toutes ses formes. Sur Next, il couvrira une large variété de sujets dans la lignée de ce que nous faisons déjà… avec, selon l’humeur du chef, une pointe d’actualité autour du monde des jeux vidéo. Vous pouvez retrouver ses actus sur sa page profil.

Mickaël est basé à Montréal (au Canada, pas la petite commune dans l’Aude), il est donc en décalage de six heures par rapport à nous (son matin est notre après-midi) ; c’est pratique pour suivre les annonces aux États-Unis ! Comme l’ensemble de la rédac’, il est en télétravail.

+ 2 en deux ans avec l’arrivée d’Alex

L’équipe se renforce donc encore une fois. Depuis le rachat (et le sauvetage) de Next par moji, la rédaction a donc gagné deux journalistes : Alexandre Laurent arrivé durant l’été 2024 et maintenant Mickaël Bazoge. Tous les deux viennent en renfort de Jean-Marc Manach, Martin Clavey, Mathilde Saliou, Vincent Hermann et moi-même… sans oublier l’indécrottable Flock (en vacances cette semaine, pas de chronique samedi, mais celle de la semaine dernière compte double). Vincent est pour le moment en arrêt prolongé, et on lui souhaite de nous rejoindre dès que possible !

C’est un pari sur l’avenir car Next n’est pas (encore) à l’équilibre au niveau de ses comptes. Renforcer l’équipe et vous proposer toujours plus de contenus nous semble par contre indéniablement la bonne voie pour satisfaire nos abonnés et en recruter de nouveaux. Pour rappel, les abonnements – 8 euros par mois, ou 80 euros par an – sont notre seule source de revenus.

Next n’a aucune publication, aucun lien affilié ni aucun contenu sponsorisé depuis son rachat, pour l’ensemble de nos lecteurs. Pire, Next vous fait un cadeau avec votre abonnement : 1 To de stockage S3, en France, géré par moji, voire encore plus pour ceux qui disposent d’un compte depuis plusieurs années.

Quoi de neuf dans le reste de la rédac’ ?

Mathilde continue de nous proposer des épisodes de podcast, à écouter sans modération. Dernier en date, le numéro six d’entre la chaise et le clavier, avec « ce que l’IA fait à la traduction avec En chair et en os ». Ce soir, le 7ᵉ épisode parle de vulgarisation avec Pierre Kerner et Adrien Perrard. Tous les épisodes sont à retrouver sur cette page (vous pouvez aussi vous abonner au feed RSS du podcast).

Alexandre continue de travailler sur le projet de La Presse Libre v2.0, entre deux actualités sur des levées de fonds, des entrées en bourse et des chantiers de datacenters.

Jean-Marc nous en apprend tous les jours sur les fakes news alimentées par IA… saviez-vous par exemple qu’il était « interdit d’ouvrir ses fenêtres » ? Nous non plus… Reste que la liste des sites d’info générés par IA flaggués par notre extension vient aussi de franchir le cap des 12 300 sites GenAI !

Martin, pendant ce temps, décortique les annonces autour des intelligences artificielles, notamment sur son utilisation en chimie, sans oublier un retour d’expérience passionnant sur le passage d’une ville aux logiciels libres dès 2021.

Quant à moi, entre les opérations de fouilles archéologiques dans la GavCave et la publication d’une carte interactive sur les emails de plus de 36 000 mairies françaises, je vous propose des tutos sur les VPS et notamment, point très important, comment les sécuriser. Une autre carte interactive sur le vaste monde numérique est en train d’être finalisée, on en reparle rapidement.

Sur le site, de nombreuses améliorations ont été apportées, mais je vais laisser la primeur de ces infos à un futur Poing Dev qui ne saurait tarder.

☕️ Chrome passe (enfin) aux onglets verticaux et au mode lecture en pleine page

8 avril 2026 à 15:36


Après l’introduction de la vue partagée, Google vient de publier une mise à jour de Chrome (version 147) qui permet au navigateur de se mettre au niveau de la concurrence sur deux aspects : la gestion des onglets verticaux, et le mode lecture.

Les onglets verticaux sont particulièrement utiles sur les écrans larges (type 21:9 et autres formats dits ultrawide) puisqu’ils permettent d’afficher une portion plus importante du titre de la page ouverte, facilitant ainsi la navigation ou la recherche d’un onglet précis.

Promis de longue date par Google, les onglets verticaux n’étaient jusqu’ici accessibles qu’après une activation manuelle au niveau du menu des fonctionnalités expérimentales. Ils sont désormais en cours de déploiement pour tous les utilisateurs. L’option correspondante est censée apparaître au clic droit sur la barre d’onglets.

Chrome se met enfin à la page avec des onglets verticaux officiellement pris en charge – capture d’écran Next

La vue verticale dispose d’un mode réduit qui permet de n’afficher que le favicon des différents sites ouverts pour garder un accès direct aux onglets tout en augmentant la surface d’affichage utile. Elle propose logiquement, elle aussi, de créer des groupes d’onglets et d’organiser ces derniers par nom ou par étiquettes de couleur.

Une bonne nouvelle n’arrivant jamais seule, Google profite de l’occasion pour introduire un mode lecture plein écran. Jusqu’ici, l’option correspondante offrait en effet une vue simplifiée de la page en cours (expurgée des éléments graphiques et contextuels) mais uniquement sous forme d’écran partagé. Une façon, pour le moteur de recherche, de préserver le fondement de son modèle économique, puisque le mode lecture fait disparaître la plupart des publicités.

À gauche, l’ancien mode lecture, à droite le mode plein écran introduit par Chrome 147 – captures d’écran Next

Présenté comme « plus immersif », ce mode lecture dispense des options de réglage de la taille de la police, de l’interligne, ou de la couleur de fond, ainsi qu’un mode de lecture vocale (text to speech). Il est par ailleurs présenté comme compatible avec les lecteurs d’écran.

Ces deux options, annoncées par un billet de blog, sont censées être disponibles chez tous les utilisateurs, mais comme toujours, le déploiement se fait de façon échelonnée. Si l’une ou l’autre de ces options n’est pas activée chez vous, rendez-vous dans le menu des fonctionnalités expérimentales via ces deux liens :

[Tuto] Utiliser des IA génératives en local et influence du GPU sur les performances

8 avril 2026 à 13:53
Tout ça pour… ça ?
[Tuto] Utiliser des IA génératives en local et influence du GPU sur les performances

Installer des grands modèles de langage sur un ordinateur, c’est facile. Les utiliser via un chatbot aussi, à condition d’avoir suffisamment de puissance et de mémoire disponibles. Voici un tuto pour en profiter chez vous en local, avec un rapide comparatif de performances entre un serveur avec 24 cœurs CPU et un autre avec un GPU. Les gains sont énormes.

Les intelligences artificielles génératives, on les connaît principalement via ChatGPT, Claude et autres Le Chat. C’est-à-dire via les chatbots proposés en ligne par les géants du secteur que sont OpenAI, Anthropic et le français Mistral.

Utiliser une IA générative en ligne, c’est accepter d’envoyer ses données…

Derrière, tournent de grands modèles de langage (LLM) avec, pêle-mêle, GPT, Claude Opus/Sonnet/Haiku, Mistral Large/Small, etc. Les requêtes sont envoyées en ligne, l’inférence se fait sur les serveurs des entreprises qui ont développé les LLMs et la réponse est ensuite retournée à votre machine.

Dans ce genre de cas, il faut accepter le fait que vos données sortent de votre ordinateur et se retrouvent en ligne, sur les serveurs d’autres sociétés. Ces données peuvent aussi servir à entrainer et/ou améliorer des modèles. En résumé, pour la confidentialité, on repassera. Il existe depuis longtemps une alternative : utiliser des IA génératives en local.

…mais c’est aussi possible en local, sans connexion Internet

Il est possible de les faire tourner sur des CPU seulement, mais avoir en plus un GPU permet de grandement accélérer les calculs.

Nous avons déjà détaillé dans un Nextquick pourquoi les cartes graphiques sont autrement plus performantes que les CPU dans ce genre de situation. La réponse tient en un mot : matrice. Pour rappel, une simple requête à ChatGPT et c’est déjà des centaines de milliards de calculs pour avoir une réponse.

Quand il s’agit de faire tourner des IA génératives en local, un autre paramètre à considérer est la quantité de mémoire disponible. En effet, il faut charger les poids et paramètres du modèle en mémoire vive… et cela commence rapidement à chiffrer quand on parle de milliards de paramètres, voire des dizaines ou des centaines de milliards de paramètres.


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Anthropic dévoile Mythos, son modèle d’IA chasseur de failles… réservé à certains

8 avril 2026 à 13:13
Anthropic entrouvre la boîte de Pandore
Anthropic dévoile Mythos, son modèle d’IA chasseur de failles… réservé à certains

Après plusieurs semaines de rumeurs, Anthropic a levé le voile sur Mythos, son nouveau modèle d’IA présenté comme ultra-puissant sur la cybersécurité, mais aussi ultra-verrouillé dans son usage puisque seule une poignée d’élus peuvent en profiter. Pas question (pour le moment ?) de le rendre accessible au grand public.

Mythos n’est plus mytho. Après la fuite d’un billet de blog aux faux airs de coup de com’, Anthropic a fini par officialiser Claude Mythos, sous la forme du projet Glasswing. L’annonce intervient alors qu’Anthropic fait face à une autre fuite – sur Claude Code cette fois-ci –, provenant encore d’une « erreur humaine » et qui alimente de nouveau les gros titres.

Du Mythos à la réalité, avec des partenaires triés sur le volet

Ce nouveau modèle IA, qui se veut plus finaud qu’Opus (le modèle jusqu’alors le plus puissant au catalogue de la start-up) a suscité pas mal de fantasmes : ses capacités poseraient une menace pour la sécurité en ligne, de l’aveu même d’Anthropic. Ce n’est pas la première fois que l’entreprise joue des coudes pour mettre en avant son modèle.

Le Mythos du jour serait tout simplement « trop puissant » pour une diffusion publique. Quoi qu’il en soit, l’entreprise a laissé planer le doute, trop heureuse sûrement de rouler des mécaniques, alors que l’introduction en bourse se profile à l’horizon et que la guerre avec OpenAI fait rage.

L’entreprise a donc fini par dévoiler son plan de match et surprise : il n’est pas question de laisser Mythos entre les mains de n’importe qui. Elle a préféré lancer une nouvelle initiative qui permettra aux heureux élus de sécuriser leurs logiciels grâce au nouveau modèle.

AWS (Amazon Web Services), Apple, Google, la fondation Linux, Microsoft, NVIDIA, Cisco, Broadcom et d’autres encore ont accès à un aperçu de Mythos au sein du « projet Glasswing », en référence aux papillons avec des « ailes de verre ».


Il reste 78% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Bitcoin : une nouvelle enquête affirme révéler l’identité de Satoshi Nakamoto

8 avril 2026 à 11:01


Serait-ce enfin l’épilogue ? Dix-sept ans après la publication du fameux livre blanc signé Satoshi Nakamoto et l’essor du phénomène bitcoin, deux journalistes du New York Times affirment être en mesure de certifier l’identité réelle de son créateur. D’après leur longue enquête, tous les éléments convergent vers Adam Back, un cryptographe d’origine britannique âgé de 55 ans.

Pour mettre un nom sur l’un des hommes les plus recherchés au monde, John Carreyrou et Dylan Freedman ont notamment passé au crible les archives de la célèbre mailing list Cypherpunks dont les échanges, inscrits dans le courant de pensée éponyme, ont participé à la création des cryptoactifs en général et de bitcoin en particulier.

Au cours de leurs travaux, les deux journalistes estiment avoir mis au jour des similitudes troublantes entre les échanges signés par Adam Back et ceux attribués à Satoshi Nakamoto. Le premier aurait d’ailleurs disparu quand le second a fait son entrée sur le devant de la scène, avant que le mouvement inverse ne s’opère. En 2011, Nakamoto s’est en effet soudainement tu. Six semaines après sa disparition, Adam Back s’est ensuite exprimé pour la première fois publiquement sur le bitcoin.

Adam Back a démenti mercredi être le créateur de bitcoin – capture d’écran

John Carreyrou, célèbre pour avoir déclenché l’affaire Theranos quand il écrivait encore au Wall Stret Journal exhume quelques déclarations ambivalentes, et souligne comment les travaux préliminaires d’Adam Back ouvraient la voie au bitcoin. L’intéressé a en effet conçu et développé, dès 1997, un système de preuve de travail baptisé Hashcash, initialement pensé pour la lutte contre le spam, et repris ultérieurement dans l’univers bitcoin. Carreyrou retrace également le parcours de Back depuis le lancement de bitcoin, et s’interroge notamment sur les raisons de son installation à Malte, à partir de 2009.

Le gros de l’enquête réside toutefois sur des mécaniques d’analyse du discours assistée par ordinateur, qui mettent en lumière des expressions idiomatiques, des tics de langage, des constructions rhétoriques et des idées que l’on retrouve aussi bien dans les propos signés Adam Back que dans ceux attribués à Satoshi Nakamoto.

L’analyse finale est même purement quantitative : les deux auteurs indiquent avoir créé un corpus regroupant des messages émanant de 620 candidats potentiels à la paternité de bitcoin, et passé cet inventaire au crible des écrits de Nakamoto. Dans le lot, le seul à cocher toutes les cases, de la façon d’écrire email à l’emploi de tournures britanniques plutôt qu’américaines, s’est révélé Adam Black.

Dont acte ? L’intéressé a réagi mercredi 8 avril sur les réseaux sociaux.

« Je ne suis pas Satoshi, mais j’ai été parmi les premiers à me concentrer sur les implications sociétales positives de la cryptographie, de la confidentialité en ligne et de la monnaie électronique, d’où mon intérêt actif, à partir de 1992 environ, pour la recherche appliquée sur la monnaie électronique et les technologies de confidentialité sur la liste de diffusion des cypherpunks, ce qui a conduit à Hashcash et à d’autres idées ».

D’après lui, les liens sémantiques établis par Carreyrou relèveraient de la coïncidence, et d’une proximité de pensée entre des passionnés partageant des centres d’intérêt commun. Et le secret qui entoure la création de bitcoin mériterait d’être défendu : « Je ne sais pas non plus qui est Satoshi, et je pense que c’est une bonne chose pour le bitcoin, car cela contribue à ce qu’il soit perçu comme une nouvelle classe d’actifs, une matière première numérique mathématiquement rare ».

En attendant l’éventuelle transaction réalisée depuis le premier portefeuille en bitcoin de la chaîne, qui ferait sans doute office de preuve irréfutable, le mystère de l’identité de Satoshi Nakamoto n’a donc probablement pas fini de susciter enquêtes et controverses.

Quand des réseaux d’images non consenties à caractère sexuel pullulent sur Telegram

8 avril 2026 à 10:01
Very Large Harassment Channels
Quand des réseaux d’images non consenties à caractère sexuel pullulent sur Telegram

Dans un rapport intitulé « Le harcèlement comme infrastructure », AI Forensics analyse la manière dont Telegram est utilisé comme lieu de dépôt et d’échange de contenus non consentis à caractère sexuel par des milliers d’internautes espagnols et italiens. Pour l’ONG, l’Union européenne devrait notamment faire du réseau social une très grande plateforme au sens du règlement sur les services numériques pour la soumettre à de plus fortes obligations.

Mise à jour 12:44 : ajout de la réponse détaillée de Telegram.

Des groupes de plusieurs dizaines de milliers de personnes, des contenus à caractère sexuel diffusés, voire produits sans consentement, et échangés contre monétisation, des abonnements mensuels pour accéder à une variété de contenus au milieu desquels se logent du matériel représentant des agressions sexuelles sur mineurs (child sexual abuse material, CSAM), des représentations d’incestes ou de viols…

Tel est le vaste écosystème qui prolifère sur Telegram, que les internautes utilisent comme dépôt pour des contenus obtenus ailleurs, que ce soit sur des comptes TikTok, Instagram, ou dans des conversations privées tenues sur les plateformes de Meta (WhatsApp inclus). Reddit est une autre plateforme importante de ce réseau, le plus souvent utilisée pour diffuser les invitations qui mèneront aux canaux Telegram en question.

En s’appuyant sur la collecte de 2,8 millions de messages collectés dans 16 groupes et canaux Telegram différents sur une période de six semaines, l’ONG AI Forensics publie ce 8 avril une étude de l’ « écosystème d’agression largement automatisé » qui se déploie dans au moins deux aires géographiques : l’Italie et l’Espagne.

Pour ses autrices et auteurs, menés par la sociologue Silvia Semenzin et le directeur de recherche d’AI Forensics Salvatore Romano, cette continuité d’une plateforme à l’autre appelle à une approche « plus holistique » que ce qui existe pour le moment dans la lutte contre les agressions sexuelles par images (IBSA, image-based sexual abuse).

Dizaines de milliers de contenus non consentis à caractère sexuel

Concrètement, les auteurs du rapport ont repéré 24 571 comptes actifs ayant diffusé au moins un message violent pendant la période observée, intégrés dans des groupes dont l’audimat peut grimper à 25 000 membres en Espagne, voire 27 000 en Italie.

Loin de rester dans une seule zone géographique, les autrices de l’étude constatent que 72 % des contenus espagnols sont aussi disponibles dans les groupes italiens. Au total, 8 % de tous les médias analysés sont disponibles dans les deux zones étudiées.


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Arnaques cyber : aux USA, 3 fois plus de plaintes en 10 ans, mais 20 fois plus de pertes

8 avril 2026 à 09:05
The Internet Is For Pwned
Arnaques cyber : aux USA, 3 fois plus de plaintes en 10 ans, mais 20 fois plus de pertes

Chez les plus de 60 ans, qui totalisent le plus grand nombre de plaintes, et les pertes les plus importantes, le nombre de plaintes pour phishing et spoofing (y compris téléphonique et par SMS) a été multiplié par 16 en seulement deux ans, et les pertes multipliées par 25. Dans le même temps, le nombre total de plaintes pour harcèlement ou stalking a doublé, et même triplé pour ce qui est des menaces de violences physiques.

« À nos débuts, nous recevions quelques milliers de plaintes par mois. Nous recevons désormais en moyenne près de 3 000 plaintes par jour », résume le rapport annuel 2025 (.pdf) de l’Internet Crime Complaint Center (IC3) du FBI, qui a fêté ses 25 ans l’an passé.

Le nombre de plaintes enregistrées par le FBI en matière de cybercriminalité a été multiplié par trois en 15 ans, passant d’environ 300 000 par an jusqu’en 2017 à plus d’un million en 2025. Les montants des pertes estimées ont, dans le même temps, été multipliés par 20, passant de un milliard à près de 21 milliards de dollars. La progression est de 26 % entre 2024 et 2025.

Comme nous l’avions rapporté les années passées, les plus de 60 ans sont le segment de la population le plus affecté, recensant près de deux fois plus de plaintes, et 14 fois plus de pertes, que les 20 - 29 ans.

Le nombre de plaignants de plus de 60 ans a doublé en cinq ans

Alors que le nombre de plaignants de plus de 60 ans était d’environ 100 000 par an entre 2020 et 2023, il était passé à 150 000 en 2024, et a dépassé les 200 000 en 2025.

Si le nombre de plaignants de plus de 60 ans a crû de 37 % en un an, le montant de leurs pertes a explosé de + 59 %, pour un total de 7,75 milliards de dollars (contre 5 milliards en 2024, et 3 milliards en 2023), soit 38 500 dollars en moyenne. 12 444 plaignants ont par ailleurs déclaré des préjudices supérieurs à 100 000 dollars.

Alors que l’on pourrait penser que le problème est bien connu, le nombre de plaintes pour phishing et spoofing (y compris téléphonique et par SMS) a été multiplié par 16 sur cette même population, passant de moins de 3 000 en 2023 à plus de 23 000 en 2024, et près de 50 000 en 2025.

Les pertes associées ont quant à elles été multipliées par 25, passant de 3,3 millions de dollars en 2023 à plus de 20 millions en 2024, et plus de 77 millions en 2025. Le nombre de plaintes relatives à de faux investissements, et les pertes associées, s’est pour sa part contenté de tripler.

L’IC3 consacre un second focus aux arnaques aux cryptoactifs, dont les plus de 60 ans constituent là aussi les principales victimes. Alors que l’IC3 enregistrait environ 30 000 plaintes entre 2018 et 2021, elles sont passées à près de 75 000 en 2023, ont été multipliées par deux en 2024 (150 000) pour dépasser les 175 000 en 2025 (+ 21 % par rapport à 2024).


Il reste 48% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI

8 avril 2026 à 08:13
Sam, celui qui conduit c’est celui qui…
Départs, réorganisation, portrait de Sam Altman, entrée en bourse : ça patine chez OpenAI

Il se passe toujours quelque chose chez OpenAI, à tel point que la start-up se donne parfois des allures de poulet sans tête. Pas très rassurant à quelques encablures d’une introduction en Bourse.

Les derniers jours ont été particulièrement turbulents chez OpenAI. En toute fin de semaine dernière, l’entreprise a ainsi annoncé une réorganisation de grande ampleur suite au congé maladie de Fidji Simo, « CEO des applications » et numéro 2 de la start-up, derrière Sam Altman.

En 2019, la Franco-Américaine a été diagnostiquée du syndrome de tachycardie orthostatique posturale. « Il est désormais clair que je suis allée un peu trop loin et que je dois vraiment essayer de nouvelles approches pour stabiliser ma santé », a-t-elle expliqué dans un mémo à ses équipes.

Retrait surprise de la numéro 2 d’OpenAI

Embauchée par le créateur de ChatGPT en mai 2025, elle occupait un poste complètement inédit au sein du groupe : directrice générale en charge des applications. L’ancienne vice-présidente de Facebook, devenue par la suite CEO d’Instacart, a poussé une stratégie de recentrage d’OpenAI et de ses précieuses ressources vers la génération de code et les services aux entreprises afin de mieux concurrencer Anthropic. La fermeture de Sora, le générateur de vidéos IA, et la suspension du développement du « mode adulte » de ChatGPT, participent à cette réorientation.

Fidji Simo voudrait aussi créer une « superapp » regroupant ChatGPT, Codex et le navigateur Atlas. En son absence forcée, ce projet ira-t-il à son terme ? Il est en tout cas entre les mains de Greg Bockman, le président d’OpenAI, qui prend cette superapp sous son aile. Brad Lightcap, le directeur des opérations, s’occupera des « projets spéciaux ». Fidji Simo était montée au créneau il y a encore quelques jours seulement pour expliquer le rachat de la chaîne tech TBPN (Technology Business Programming Network) par OpenAI.

Dans la foulée, la directrice marketing Kate Rouch a décidé de se retirer temporairement pour se consacrer à son rétablissement après un cancer. Elle occupait ce poste depuis un an et demi. Elle assurera la transition avec son remplaçant et « espère revenir dans un rôle différent à l’avenir si [sa] santé le lui permet ».

L’ombre de l’IPO

Ce bouleversement dans l’organigramme tombe à un moment délicat pour OpenAI, qui vient de boucler un tour de table à hauteur de 122 milliards de dollars, et qui s’apprêterait à se lancer à Wall Street cette année… Du moins si la direction de l’entreprise parvient à s’entendre sur cette question !

Le site The Information rapporte en effet les frictions entre la directrice financière Sarah Friar et le grand patron Sam Altman concernant le calendrier de l’introduction en bourse (IPO). Les procédures à mettre en place, le travail encore à accomplir en matière d’organisation, et les risques liés aux engagements de dépenses (notamment pour les équipements en serveurs) pourraient mettre à mal l’opération en 2026.

Bizarrement, la directrice financière relevait depuis août dernier non pas du directeur général Sam Altman, comme c’est généralement l’usage, mais… de Fidji Simo, qui vient donc de partir en congé maladie. Un vrai sac de nœuds !

Sur le strict plan financier, OpenAI aurait aussi prévenu les investisseurs que la marge brute réalisée en 2025 était inférieure aux prévisions. Elle a été grignotée par l’achat en urgence de capacités de calcul supplémentaires pour faire face à une demande plus forte que prévu. Sarah Friar s’inquiéterait également de la croissance des revenus, qui tournerait au ralenti.

Sam Altman se fait (encore) tirer le portrait

Le tableau ne serait pas complet sans le portrait de Sam Altman publié ce week-end par The New Yorker. À travers de nombreux témoignages et mémos internes, il dépeint un dirigeant habile, obsédé par la gagne, et qui entretiendrait un rapport, disons, très souple à la vérité.

Sam Altman en prend pour son grade. « Tu dois comprendre que Sam ne peut jamais être digne de confiance […] C’est un sociopathe. Il ferait n’importe quoi », aurait affirmé Aaron Swartz, informaticien, militant politique et hacktiviste américain qui s’est suicidé en janvier 2013. Le terme sociopathe a été utilisé spontanément par d’autres personnes, notamment du conseil d’administration d’OpenAI, expliquent nos confrères.

« Il n’a que faire de la vérité » et n’hésiterait pas à « déformer, trafiquer, renégocier et renier des accords », selon une source. Il posséderait, selon une autre source de chez Microsoft citée par nos confrères, deux traits de caractère que l’on ne retrouve généralement pas chez une seule personne : « un fort désir de plaire aux autres, d’être apprécié dans toutes ses interactions [et] un manque de préoccupation, presque sociopathique, des conséquences que pourrait entraîner le fait de duper quelqu’un ».

L’année dernière, Sam Altman était déjà au cœur de l’attention des médias avec les « OpenAI Files », une collection de documents regroupant de nombreux témoignages, notamment d’anciens employés de l’entreprise. Le portrait n’était pas flatteur. Des cadres supérieurs des trois entreprises qu’il a dirigées ont tenté de le démettre de ses fonctions. Son comportement chez Y Combinator aurait été qualifié de « trompeur et chaotique », avec en plus des accusations d’absentéisme et de course à l’enrichissement personnel. Il aurait menti et cherché à semer la zizanie dans le conseil d’administration… n’en jetez plus.

Le dévoilement de ces coulisses et la réorganisation de la direction au plus haut niveau pourraient-ils faire capoter l’IPO d’OpenAI ? Sans doute pas, les intérêts sont trop élevés, d’autant qu’Anthropic aussi se joint à la fête avec la volonté d’une entrée en bourse cette année. Mais ces remous confirment à tout le moins qu’au-delà de la figure publique de Sam Altman, la gouvernance de l’entreprise reste fragile.

USA : les chantiers de datacenters butent sur un double mur énergétique

8 avril 2026 à 07:18
Un seul être vous manque, et tout est dépeuplé
USA : les chantiers de datacenters butent sur un double mur énergétique

Entre 30 et 50 % des projets de datacenters attendus pour 2026 aux États-Unis devraient enregistrer des retards. Outre la difficulté à sécuriser les accès à l’énergie nécessaires à leur alimentation, ce ralentissement de la construction serait principalement dû aux délais nécessaires pour l’approvisionnement en équipements dédiés à la production ou à la transformation d’énergie.

N’en déplaise à Donald Trump, la souveraineté industrielle ne se décrète pas, et les faramineux plans d’investissement programmés dans les datacenters aux États-Unis risquent de bientôt incarner très directement cette problématique. Dans une enquête datée du 1er avril, Bloomberg décrit en effet comment plusieurs grands chantiers de construction se heurtent à une problématique d’approvisionnement en composants électriques.

Le principal goulot d’étranglement ne se situerait donc pas au niveau des puces dédiées à l’IA, de la mémoire vive, ou des équipements réseau, mais à l’étage d’en dessous : celui des équipements nécessaires à l’électrification d’un centre de données. D’un point de vue financier, ces derniers représentent généralement moins de 10 % du coût global d’un datacenter, remarque Bloomberg. Ils n’en sont pas moins indispensables au bon fonctionnement de l’ensemble. Or, la demande semble nettement dépasser l’offre.

Les projets en matière de création de datacenters mobilisent en effet des enveloppes record : d’après une analyse de Bridgewater Associates réalisée fin février, les dépenses d’investissement en infrastructures programmées par Google, Amazon, Meta et Microsoft totaliseraient en effet la bagatelle de 650 milliards de dollars. Et si ces projets ont en partie vocation à servir les besoins d’acteurs spécialisés comme OpenAI ou Anthropic, ils ne couvrent pas la totalité du marché, puisque d’autres acteurs spécialisés (Oracle, Equinix, Coreweave, etc.) prévoient eux aussi la construction de nouveaux centres de données.

Des plans d’investissement en forme de vaporware ?

Les chiffres sont tellement monumentaux qu’ils soulèvent en premier lieu la question de la fourniture d’énergie associée, particulièrement dans certaines régions des États-Unis où le réseau électrique n’est pas dimensionné pour accueillir de telles infrastructures.

En réponse, les géants du numérique travaillent d’ailleurs à sécuriser leurs besoins à venir via des achats en direct, à l’image de Meta qui déclarait en début d’année avoir réservé 6,6 GW d’énergie fournie par des réacteurs nucléaires dont la construction ne s’achèvera qu’à horizon 2035.

De plus en plus, ils deviennent aussi leurs propres fournisseurs d’énergie. Sur ce volet, l’exemple le plus emblématique est sans doute celui de xAI, l’entreprise d’Elon Musk, dont la récente levée de fonds de 20 milliards de dollars a notamment vocation à financer l’achat de nouvelles turbines à gaz. Ces cinq nouvelles machines, représentant une puissance cumulée de 2 GW, viendraient compléter un parc installé déjà conséquent, dont la construction et les niveaux d’émission dépassent largement la réglementation locale en vigueur.

Cette problématique du raccordement à un réseau alimenté en conséquence entraine déjà un lot important de retards, d’après la partie accessible au public (enregistrement par email requis) d’un rapport signé d’un cabinet spécialisé, Sightline Climate, dont Bloomberg tire les éléments chiffrés de son enquête.


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Votre PC tient-il la route ? Steam pourrait donner la réponse avec une estimation des FPS

8 avril 2026 à 06:46


Quel joueur ne s’est pas réveillé en pleine nuit, de la sueur glacée perlant à grosses gouttes sur le visage et dans le dos, en se demandant si tel jeu allait tourner correctement sur son PC ? Il faut dire que les outils à leur disposition sont limités : ils peuvent toujours se référer aux configurations recommandées par l’éditeur, mais souvent cela revient à croiser les doigts dans l’espoir que tout tourne au mieux !

Steam pourrait bien leur faciliter la vie. La dernière bêta du client de la boutique contient des références à un « estimateur de framerate » qui fonctionnerait de la manière suivante : soit en renseignant la configuration matérielle du PC (CPU, GPU, RAM), soit en laissant le logiciel fouiller tout seul pour obtenir ces informations.

© dex3108

Après avoir sélectionné un jeu, Steam serait en mesure de retourner une estimation du nombre d’images par seconde que l’on devrait obtenir sur sa machine. Sur PC, la boutique Xbox offre un outil assez proche, mais elle se contente de dire comment tel jeu fonctionnera sur l’ordinateur, en restant vague. Sur Steam, il s’agira d’obtenir une donnée chiffrée.

Depuis le mois de février, le client Steam en bêta invite tous ceux qui laissent un avis sur la page d’un jeu à inclure automatiquement les caractéristiques matérielles de leur machine. Ils peuvent également autoriser la collecte de données (anonymisées) sur la fréquence d’images. C’est aussi le cas depuis la mise à jour de la version stable de SteamOS pour le Steam Deck qui remonte au 9 mars.

Valve précise que la fonction « est actuellement en version bêta et se concentre sur les appareils fonctionnant sous SteamOS », mais comme on le voit l’éditeur semble voir plus large que les seuls appareils de son écosystème. Il est vrai cependant que c’est plus facile de commencer par SteamOS, où le parc matériel se restreint à une poignée de consoles portables. La console de salon Steam Machine est toujours dans les limbes…

Le framerate ne fait pas tout, et on attend de voir si l’outil de Steam inclura des variations de FPS en fonction de la résolution du jeu et des paramètres de qualité sélectionnés. Le principe reste intéressant, ne serait-ce que pour avoir une idée un peu plus claire des performances à attendre. À voir si cette fonctionnalité arrivera en version finale et, si c’est le cas, sous quelle forme elle sera proposée

❌