Réunis à Tours pour les Assises du journalisme, journalistes et autres professionnels des médias ont débattu avec chercheurs, juristes et le public des manières de faire face à la dégradation accélérée de l’espace informationnel.
« Nous avons le sentiment d’être pris entre le marteau russe et l’enclume des États-Unis. » C’est par ces mots que Jean-Marc Four, directeur de Radio France Internationale (France Médias Monde), a résumé la situation face à laquelle se trouve la station de radio publique, qui diffuse « en 17 langues » et touche « chaque semaine plus de 100 millions de personnes dans le monde ».
Ce 8 avril, aux Assises du journalisme de Tours, Jean-Marc Four participait aux côtés d’une quinzaine d’experts des enjeux de l’information et de ses manipulations à un vaste débat sur « le journalisme face à la guerre informationnelle ». Et les constats qui y ont été dressés, comme le vocable employé le laisse deviner, intiment à l’adaptation rapide.
La veille, Donald Trump lançait un ultimatum à l’Iran, menaçant d’ « anéantir la civilisation iranienne » si le détroit d’Ormuz n’était pas rouvert dans la nuit. S’appuyant sur cet exemple, la chercheuse à l’institut de recherche stratégique à l’école militaire (IRSEM) Maud Quessard soulignait que pour les armées, il est évident depuis longtemps que la guerre n’est plus seulement physique, mais aussi numérique et informationnelle. Elle rappelait aussi que le paysage informationnel peut servir à « gagner la guerre sans la faire », en particulier « dans le cadre de guerres non ouvertes ». Ce mécanisme peut même passer par la manipulation des perceptions, pour « amplifier la perception des conflits en cours ».
En d’autres termes, lors de ces discussions comme de celles qui réunissaient professionnels de l’information et public tourangeau, la veille, pour un échange titré « la vérité selon Trump et ses conséquences », l’ambiance des Assises était à la recherche de nouveaux repères.
Soirée d’ouverture des Assises du journalisme : « La vérité selon Trump et ses conséquences » / Mathilde Saliou
La tâche n’est pas simple : au monde médiatique de trouver des manières de traiter l’information au mieux, dans un contexte toujours plus dégradé économiquement (y compris sous la pression de l’IA), tout en s’équipant face aux menaces croissantes que posent, pour le débat public, les tentatives d’ingérences étrangères et les manipulations réalisées depuis le territoire national. Au passage, au monde médiatique aussi (avec l’aide d’autres écosystèmes) de sensibiliser le grand public à l’état du conflit informationnel en cours.
Nécessaire autocritique médiatique
Soulignant « l’accélération technologique » qu’incarne notamment l’intelligence artificielle, notamment parce qu’elle permet de « fabriquer du faux plus vrai que vrai », le directeur de la publication de Ouest France François-Xavier Lefranc appelle les professions journalistiques et médiatiques à « faire leur autocritique ».
Il reste 62% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Depuis quelques années, les fuites de données s’enchainent à vitesse grand V et les institutions officielles ne sont pas épargnées. Le gouvernement vient de mettre en ligne sa feuille de route des efforts prioritaires en matière de sécurité numérique de l’État. Elle comporte une quarantaine d’actions à mettre en place cette année.
Dès son introduction, le document – validé en concertation interministérielle – revient sur « les multiples intrusions et fuites de données qui ont affecté en 2025 les systèmes d’information des ministères et des établissements dont ils ont la tutelle ». Ces failles et fuites rappellent, s’il en est besoin, « la persistance de vulnérabilités graves dans l’ensemble de ces infrastructures ». Le document du jour vise à y apporter une réponse…
Conseiller numérique obligatoire et anticipation de NIS 2
Premier point du document : renforcer la gouvernance. Chaque ministère devra ainsi désigner un conseiller numérique en charge de la cybersécurité « dans le mois suivant la nomination du ministre »… de quoi éviter des blancs en cas de changements a répétition. Les ministères devront aussi s’assurer que la cybersécurité soit bien prise en compte à tous les niveaux. Avant le 30 juin 2026, ils devront ainsi avoir formalisé « une politique d’audit et de contrôle des systèmes d’information ». La mise en œuvre est programmée pour le 31 décembre 2026.
En vue de NIS 2, qui va bien finir par passer le cap de l’Assemblée nationale un jour ou l’autre, la politique de sécurité des systèmes d’information de l’État devra être mise à jour, au plus tard au premier trimestre 2027, pour « intégrer en anticipation le référentiel de règles ayant vocation à s’appliquer aux entités essentielles que créera NIS 2 ».
Sur l’homologation des systèmes d’information, la feuille de route précise que « tout système faisant l’objet d’une migration sur le cloud devra être considéré comme un nouveau système d’information et donc faire l’objet d’une homologation ». Avec le cloud dominé par des acteurs américains, cela soulève aussi des questions de souveraineté. La qualification SecNumCloud de l’ANSSI permet de s’assurer de l’étanchéité aux lois extraterritoriales (notamment étasuniennes et chinoises), pour rappel.
Supply chain, mise à jour, authentification… rappel des basiques
C’est dans l’air du temps avec les attaques qui se multiplient contre la « supply chain », le document demande aux ministères de mettre en place, d’ici au 30 juin 2026, « une politique de contrôle de la chaîne d’approvisionnement ».
Sur la question des mises à jour, ils devront définir des procédures d’installation des correctifs de sécurité d’ici au 30 juin 2026 et les mettre en œuvre avant la fin de l’année. Il est aussi question de « renforcer l’authentification et la gestion des accès ».
Autre mesure importante (et on pourrait presque dire qu’il est temps) : « Mettre en place d’ici le 31 décembre 2026 une authentification multi-facteur de l’ensemble des administrateurs de systèmes d’information ». Avec la gestion des mises à jour, ce sont des points basiques, qui devraient déjà être en place… mais force est de constater qu’il reste encore du travail. Le détail des manquements détaillé par la CNIL suite à la fuite et condamnation de France Travail par CNIL (5 millions d’euros d’amende) en est une preuve.
La feuille de route prévoit aussi de déployer « des dispositifs avancés de détection des attaques (EDR ou XDR) sur l’ensemble des postes de travail et sur l’ensemble des serveurs » avant la fin de l’année. Les ministères doivent aussi tester au moins une fois par an les plans de reprise d’activité.
Après un incident important (dont la définition reste à préciser), le ministère impacté « aura pour obligation de suivre les recommandations de l’ANSSI, puis 6 mois après l’incident d’adresser un point de suivi à l’ANSSI, au corps d’inspection et au Premier ministre ».
Vincent Strubel, patron de l’ANSSI, rappelait dans son bilan de la cybermenace en 2025 une autre réalité : le facteur humain et le « mode legacy » parfois laissé en place pour calmer la grogne des anciens utilisateurs. Nous avons « probablement devant nous un phénomène de coupure un peu brutale des systèmes un peu obsolescents », affirmait Vincent Strubel.
À surveiller de près : DNS, messageries et quantique
La feuille de route cible ensuite les DNS et messageries, utilisés par les pirates « pour introduire des codes malveillants dans les systèmes d’information » de l’État. Là encore, la feuille de route prévoit une action en deux temps : renforcer avant le 30 septembre 2026 la sécurité des DNS, « notamment par un recours accru au service interministériel DNS », et celle des systèmes de messagerie avant le 31 décembre 2026.
Dernier point, préparer la transition vers la cryptographie post-quantique. Pour rappel, la question n’est pas tant de savoir si un ordinateur quantique capable de casser des systèmes de chiffrement verra le jour, mais quand il sera opérationnel avec suffisamment de qubits.
Il est donc demandé aux ministères de faire cette année l’inventaire « de leurs données durablement sensibles pour lesquelles une mise en place de la cryptographie post-quantique sera prioritaire »… en espérant qu’elles n’aient pas déjà fuité, sinon c’est déjà trop tard.
Ils devront ensuite « déployer de la cryptographie post-quantique pour tous les systèmes d’information traitant d’information à diffusion restreinte avant fin 2030 ». Enfin, à partir de 2030, « ne déployer que des produits de chiffrement qui intègrent de la cryptographie post-quantique ».
L’ANSSI aussi a dévoilé sa feuille de route sur le post quantique, avec deux échéances. À partir de 2027 tout d’abord, l’Agence n’acceptera plus en entrée de qualification des produits de sécurité qui n’intègrent pas une cryptographie résistante à l’ordinateur quantique. Puis, à partir de 2030, « on recommandera et on imposera le cas échéant de ne plus acquérir de telles solutions ».
Quoi qu’il en soit, le « suivi opérationnel de la mise en œuvre de la feuille de route 2026 - 2027 sera assuré chaque mois en Comité interministériel de suivi de la sécurité numérique (CINUS), qui réunit les chaînes de sécurité des systèmes d’information des ministères sous l’égide de l’ANSSI ».
Spécialiste du clavier mécanique, Keychron fait un pas supplémentaire en direction de la communauté des makers avec la publication, sur GitHub, des modèles 3D utilisés dans la fabrication des principales références de son catalogue.
Pour la plupart de ses claviers, on peut ainsi télécharger les fichiers de CAO qui décrivent dans le détail la conception du boîtier, les découpes de la plate (la plaque située entre les commutateurs et le PCB), les spécifications des différents composants, etc.
Modèle 3D du Keychron Q10 – crédit Keychron
Selon les éléments concernés, Keychron propose des formats faisant office de standards industriels, a minima pour la visualisation, avec DXF (.dxf) ou DWG (.dwg) pour les plans, et STEP (.stp) pour la plupart des modèles 3D. Les internautes sont invités à enrichir le dépôt avec leurs propres contributions, qui peuvent prendre la forme de corrections apportées à des modèles existants, ou de configurations alternatives à celles commercialisées par Keychron.
« Nous pensons que la mise à disposition des fichiers matériels de production constitue une contribution significative à la communauté plus large du matériel et des claviers ! », se réjouit l’entreprise. Un élément manque toutefois à l’appel : Keychron ne partage pas le plan des PCB de ses claviers : sur ce volet électronique, les sources restent fermées.
Plan pour les découpes d’une plaque de clavier – crédit Keychron
Notons par ailleurs que si les sources de certains éléments matériels sont ouvertes, Keychron restreint explicitement la réutilisation commerciale : « Tous les fichiers de conception matérielle sont fournis exclusivement pour un usage personnel, éducatif et non commercial ».
Keychron avait déjà par le passé publié certains éléments de conception de ses claviers les plus populaires, mais sans étendre cet effort à l’ensemble de son catalogue comme ici (à l’exception de quelques modèles spécifiques comme son récent clavier céramique). L’entreprise exploite et collabore également de longue date à des firmwares ouverts comme QMK ou ZMK.
Sur X, l’entrepreneur Pavel Durov a réagi au dernier rapport de l’ONG AI Forensics en recourant à des schémas complotistes. L’étude décrit comment des réseaux de diffusion non consentie d’images à caractère sexuel tirent profit financier et social du fonctionnement de Telegram.La communication de Durov diffère largement des éléments initialement transmis par l’entreprise à Next.
« L’état profond européen nous dit (via des médias d’État et des NGO financées par Soros) que Telegram est un PROBLEME parce que des gens peuvent échanger des contenus d’AUTRES réseaux sociaux dans des groupes telegram PRIVES. Ces absurdités servent à justifier la surveillance (Chat Control) et la censure (DSA). »
C’est sur ce ton agressif, et ce recours à une idée (celle de l’État profond) et un nom (celui de George Soros) devenus classiques dans la complosphère que Pavel Durov a réagi sur X au travail de l’ONG AI Forensics. Ce 8 avril, cette dernière publiait un long rapport détaillant le fonctionnement des réseaux de partage et de diffusion d’images non consenties à caractère sexuel en Italie et en Espagne, très actifs sur Telegram.
Dans ses différents rapports annuels, l’ONG mentionne effectivement l’Open Society Foundations, réseau de fondations financées par le milliardaire George Soros, parmi d’autres sociétés philanthropiques qui participent à son financement. Depuis 2024, AI Forensics s’appuie par ailleurs sur deux contrats signés avec la Commission européenne (en collaboration avec d’autres organisations de la société civile) dans le cadre de l’application du règlement sur les services numériques (DSA).
Une communication bien plus agressive qu’au départ
Le tweet de Pavel Durov évoquant un « état profond » n’est en réalité que le premier d’une série de trois. En un thread qui vise à instiller le doute sur la qualité du travail mené par l’ONG, le fondateur de Telegram attaque aussi différents médias européens qui se sont fait l’écho du rapport, citant surtout une volée de médias français (l’AFP, Le Parisien, France 24, Ouest France et Le Figaro).
Il reste 70% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
S3 Files : aux frontières du stockage, les données sont ailleurs
Amazon Web Services vient d’annoncer le lancement de S3 Files, « un nouveau système de fichiers qui connecte de manière transparente n’importe quelle ressource de calcul AWS à Amazon Simple Storage Service (S3) ». Cette solution utilise d’autres technologies Amazon (EFS par exemple) et ne fonctionne donc que sur le S3 d’Amazon, pas avec d’autres stockages « S3 compatibles ».
S3 est, pour rappel, du stockage objet lancé par Amazon il y a 20 ans et qui est depuis devenu un standard de fait largement utilisé à travers le monde. Next utilise du S3 par exemple pour le To de stockage offert avec votre abonnement (et plus en fonction de votre ancienneté). S3 a beau être lancé par Amazon, le stockage maison S3 déployé par les hébergeurs sur leur propre infrastructure ne dépend d’aucune manière d’Amazon, qui n’a donc aucun accès aux données.
Revenons au fonctionnement du stockage S3, qui utilise des objets et des buckets. Un objet représente n’importe quel type de donnée (texte, vidéo…) et les objets sont réunis dans des conteneurs appelés buckets. Pour aller plus loin, nous avons pour rappel publié un dossier complet sur l’histoire et le fonctionnement de S3.
Stockage S3 vs système de fichiers : des différences fondamentales
Le fonctionnement du stockage S3 est différent des systèmes de fichiers classiques sur plusieurs points, comme le rappelle Sébastien Stormacq d’AWS dans le billet d’annonce de S3 Files : « Mon analogie préférée était de comparer des objets S3 à des livres dans une bibliothèque (on ne peut pas modifier une page, il faut remplacer tout le livre) alors que des fichiers sur votre ordinateur peuvent être modifiés page par page ». Pour modifier quelques octets dans un objet de 5 Go, il faut réécrire la totalité des données.
Selon l’entreprise, son nouveau service est le premier à « offrir un accès complet et performant à vos données S3 par un système de fichiers ». Les modifications faites sur la version système de fichiers sont automatiquement répercutées dans le bucket S3 (et vice-versa), avec des contrôles sur la synchronisation. S3 Files peut être associé à plusieurs ressources, « permettant le partage de données entre les clusters sans duplication ».
Les buckets S3 sont ainsi accessibles depuis Elastic Compute Cloud (EC2), Container Service (ECS), Kubernetes Service (EKS) et des fonctions AWS Lambda. Dans sa foire aux questions, Amazon précise que seuls les « general purpose buckets » sont compatibles avec S3 Files, pas les Tables, Vectors ou « directory buckets ».
S3 Files surfe sur NFS 4.1 et utilise POSIX
Les objets S3 sont accessibles « sous forme de fichiers et de répertoires, prenant en charge toutes les opérations du Network File System (NFS) v4.1 + telles que la création, la lecture, la mise à jour et la suppression de fichiers ». Amazon ajoute que « S3 Files utilise les permissions POSIX pour les fichiers et les répertoires ».
Ce n’est pas juste une présentation sous la forme d’une arborescence comme peuvent déjà le faire des clients S3, mais un changement plus en profondeur pour avoir un « vrai » système de fichiers, avec la gestion qui va avec. L’accès simultané à des données est géré avec une cohérence NFS close-to-open.
Amazon revendique des performances élevées avec son S3 Files, qui est basé sur Amazon Elastic File System (EFS) avec une latence de l’ordre de la milliseconde pour les données actives, c’est-à-dire celles déjà présentes dans le cache de S3 Files.
La synchronisation peut prendre « quelques minutes »
Attention, par contre à la synchronisation des données avec S3 qui prend du temps, comme l’indique AWS dans son exemple : « Lorsque je fais des mises à jour de mes fichiers dans le système de fichiers, S3 gère et exporte automatiquement toutes les mises à jour sous forme de nouvel objet ou de nouvelle version d’un objet existant dans mon bucket S3 en quelques minutes. Les modifications apportées aux objets du bucket S3 sont visibles dans le système de fichiers en quelques secondes, mais peuvent parfois prendre une minute ou plus ».
S3 Files utilise AWS Identity and Access Management (IAM) pour la gestion des contrôles d’accès et du chiffrement, avec TLS 1.3 lors du transit et un chiffrement au repos via Amazon S3 managed keys (SSE-S3) ou une clé de l’utilisateur avec AWS Key Management Service (KMS). Le billet de blog donne des exemples et des détails techniques. De la documentation est disponible par là.
S3 Files est dès à présent disponible dans toutes les régions AWS. Le service n’est évidemment pas gratuit : « Vous payez pour la portion de données stockée dans votre système de fichiers S3, pour les opérations de lecture de petits fichiers et toutes les opérations d’écriture sur le système de fichiers, ainsi que pour les requêtes S3 lors de la synchronisation des données entre le système de fichiers et le bucket S3 ». Les tarifs sont détaillés sur cette page (en anglais seulement pour le moment).
On m'a dit de venir, pas de venir avec des bagages, pourquoi ?
Le Sénat a voté mercredi 8 avril à l’unanimité la proposition de loi visant à instaurer une présomption d’utilisation de contenus culturels protégés par un droit d’auteur au niveau des éditeurs d’IA. Le texte, qui doit maintenant passer à l’Assemblée nationale, inverse donc le rapport de force, puisqu’en cas de contentieux, ce sera aux acteurs de la tech de prouver qu’ils n’ont pas exploité un contenu de façon illicite.
Beaumarchais a une nouvelle fois été convoqué sous les ors de la République mercredi 8 avril, lors des débats du Sénat autour de la proposition de loi « relative à l’instauration d’une présomption d’utilisation des contenus culturels par les fournisseurs d’intelligence artificielle ». Et les défenseurs du droit d’auteur n’ont pas été déçus, puisque l’article unique du texte a été adopté à l’unanimité, au terme d’une séance de débat plutôt consensuelle : le soutien à l’innovation ne doit pas se faire au détriment de la création culturelle et cette dernière doit être rémunérée à sa juste valeur dès lors qu’elle est exploitée.
Inverser la charge de la preuve pour forcer la transparence
Le texte adopté en première lecture dispose que, sauf preuve contraire, une œuvre protégée par un droit d’auteur ou un droit voisin « est présumée avoir été utilisée par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».
Autrement dit, si un ayant droit estime qu’une œuvre a été utilisée par un modèle (par exemple, parce qu’un chatbot est capable de citer des extraits d’un livre), c’est à l’opérateur de l’IA en question qu’il appartiendra de prouver qu’il n’a commis aucune utilisation irrégulière. Le texte instaure donc une inversion de la charge de la preuve, en instaurant une présomption d’exploitation.
« Ce ne sera plus au créateur de prouver le moissonnage de son œuvre, mais au fournisseur d’IA de prouver qu’il ne l’a pas utilisée. Notre objectif n’est pas de multiplier les procès, mais d’inciter les acteurs de l’IA à abandonner certains comportements de prédation pour un modèle fondé sur la transparence et la négociation. Aujourd’hui, les créateurs ne négocient pas ; ils subissent », a fait valoir en séance la sénatrice Agnès Evren (LR), auteure de la proposition de loi.
Elle a par ailleurs pris soin d’affirmer que ce renversement avait été validé par le Conseil d’État, et souligné que l’esprit de la proposition de loi rejoignait les recommandations formulées dans le récent rapport d’Alex Voss voté le 11 mars dernier au Parlement européen. Dans son texte, celui-ci invite en effet Bruxelles à « proposer l’établissement d’une présomption réfragable », mais il restreint cette dernière aux cas de non-respect d’un certain nombre d’obligations de transparence.
Le Sénat français va donc un cran plus loin, arguant du principe que ce renversement est indispensable pour contraindre les éditeurs d’IA à faire preuve d’une vraie transparence sur leurs données d’entraînement. « On nous oppose souvent le secret des affaires, ce bouclier dont les entreprises d’IA usent et abusent. Or si l’algorithme relève du secret industriel, les données pour le nourrir sont le fruit du travail d’autrui. La transparence n’est pas une menace pour l’innovation, c’est la condition de l’acceptabilité sociale de l’IA », a défendu Catherine Morin-Desailly (Union centriste).
Représenté par ses ministres de la Culture et de l’Intelligence artificielle et du numérique, le gouvernement a pour sa part tenu une position plus nuancée.
« Le Gouvernement partage l’objectif du mécanisme proposé par la commission, mais le contentieux ne peut pas constituer notre unique horizon, car il entraîne des risques : judiciarisation excessive, insécurité juridique prolongée, multiplication des procédures. Mieux vaut un bon accord qu’un mauvais procès », a prudemment avancé Catherine Pégard, ministre de la Culture.
Anne Le Hénanff, ministre déléguée chargée de l’intelligence artificielle et du numérique, a quant à elle plus fermement défendu le point de vue des acteurs de la tech :
« Avec une telle présomption, l’entreprise devra apporter la preuve négative de l’utilisation de données culturelles, via l’analyse de dizaines de téraoctets de données ; c’est tout simplement impossible ! Tous les acteurs économiques qui ont développé des modèles d’IA – entreprises du CAC 40, TPE-PME, start-up – risqueraient un contentieux, ce qui serait dévastateur pour notre économie ».
Elle aussi appelle à privilégier la négociation au contentieux, en s’engageant à soutenir « toutes les initiatives contractuelles entre les acteurs de l’IA et ceux de la culture », ainsi qu’à participer aux évolutions à venir du cadre européen, « car c’est en agissant au bon niveau que nous obtiendrons la sécurité juridique nécessaire ».
Négocier, mais autour de quelle table ?
L’attente est-elle entendable du point de vue des ayants droit, alors que les illustrations d’utilisation à grande échelle de contenus protégés se multiplient ? Dans le sillage du procès ouvert aux États-Unis contre Meta pour entraînement de ses modèles sur les contenus de la bibliothèque clandestine LibGen, plusieurs articles de Mediapart ont montré ces derniers mois le recours à des contenus protégés par l’entreprise française Mistral AI.
Plus récemment, une nouvelle enquête, publiée le 6 avril, démontre que des centaines de milliers d’ouvrages ou d’articles scientifiques accompagnés de la mention « tous droits réservés » figurent dans l’immense jeu de données finepdfs hébergé sur Hugging Face.
Au-delà de sa dimension contentieuse, la proposition de loi serait, dans ce contexte et pour ses promoteurs, un accélérateur visant à sortir du statu quo dont profitent les acteurs de l’IA.
« Il y a urgence, car le pillage continue. J’ai l’impression que quand on montre un peu de fermeté, certains, qui s’y refusaient, viennent à la table des négociations », estime Max Brisson (LR). Avec, déjà, des effets positifs, selon Laure Darcos (groupe Les indépendants), rapporteure du texte :
« Notre mécanisme, juridiquement solide et politiquement efficace, produit d’ores et déjà ses effets : le PDG de Mistral AI a proposé une contribution des entreprises d’IA en fonction de leur chiffre d’affaires pour accéder aux contenus protégés. »
Reste à voir si cette déclaration d’intention suffira à faire pencher la balance lors de l’examen du texte à l’Assemblée nationale.
Avec Muse Spark, son nouveau grand modèle de langage (LLM), Meta joue gros. Il s’agit non seulement de faire oublier l’échec de Llama, la précédente génération de LLM maison, mais aussi de justifier l’investissement maousse costaud dans le labo dédié à la « superintelligence ».
Llama 4, lancé il y a quasiment un an jour pour jour, n’a pas été le succès tant espéré par Mark Zuckerberg qui veut sa part du gâteau de l’IA générative. Pire encore, des soupçons de triche dans plusieurs benchmarks ont définitivement entaché la réputation du grand modèle de langage. Un affront pour le patron de Meta, qui digère toujours l’échec de sa stratégie du métavers.
Une muse pour le cerveau de Meta AI
Hauts les cœurs et les portefeuilles : loin de se laisser abattre par le flop de Llama, Meta a mis la main à la poche pour s’offrir la crème de la crème des spécialistes de l’IA. Débauchés dans toute l’industrie de la tech, ils ont à leur tête Alexandr Wang, l’ancien dirigeant de Scale AI, dont le géant des réseaux sociaux a pris le contrôle l’été dernier en échange de 14,3 milliards de dollars. Pour se transformer en place forte de l’IA, Meta a même laissé partir des vétérans, comme son directeur scientifique Yann LeCun.
Ces experts, regroupés au sein du « Meta Superintelligence Lab » (MSL), planchent sur la nouvelle marotte de Mark Zuckerberg, la « personal superintelligence ». Un concept pour le moins flou censé « aider l’humanité à accélérer sur la voie du progrès », expliquait le CEO dans un mémo. « Plus important encore, la superintelligence pourrait ouvrir une nouvelle ère d’émancipation individuelle, où chacun disposerait d’une plus grande liberté d’action pour améliorer le monde selon ses propres choix », poursuivait-il.
Les grands discours sont une chose, la réalité en est une autre. La première réalisation concrète du MSL est baptisée Spark, premier LLM de la nouvelle famille Muse dont l’ambition se limite, si on peut dire, à alimenter le moteur IA de l’assistant du groupe. Présent dans l’application mobile Meta AI et en ligne à l’adresse meta.ai – aux États-Unis pour commencer –, le modèle se veut résolument utile.
L’utilisateur de Meta AI pourra par exemple obtenir un itinéraire complet pour un voyage familial en Floride, avec l’aide des sous-agents de Muse Spark : le premier va établir le parcours, le second va comparer plusieurs lieux, un troisième s’occupe de trouver des activités pour les minots.
Tant qu’on a la santé
Avec ses capacités multimodales, le modèle peut « lire » une image et donner des informations sur les objets présents. Voilà qui n’a rien de franchement révolutionnaire, la plupart des IA grand public offrant le même type de fonctionnalités.
Pour tirer son épingle du jeu, Meta met en avant un aspect singulier de la perception multimodale de Muse Spark : son utilité dans le domaine de la santé. Meta AI serait ainsi en mesure de répondre de manière détaillée à des questions de santé, « y compris pour certaines questions impliquant des images et des graphiques ».
Feriez-vous vraiment confiance à une IA pour calculer des calories ?
Le secteur de la santé a été investi par les grands acteurs de l’IA : Anthropic, OpenAI, Microsoft et Perplexity se sont tous lancés avec des déclinaisons « Health » de leurs chatbots. Et le moins qu’on puisse dire, c’est qu’il vaut mieux éviter de remplacer son médecin traitant par ces versions IA pour le moment…
Muse Spark se veut tout aussi doué pour générer de petits jeux que pour le lèche-vitrine virtuel ou trouver des adresses de lieux sympas à découvrir (gare aux hallucinations tout de même). Ce n’est que le début, prévient Meta : « Attendez-vous à des résultats plus riches et plus visuels, avec des Reels, des photos et des publications directement intégrés aux réponses, tout en créditant leurs créateurs ». L’AI slop a encore de beaux jours devant elle.
À terme, Muse Spark va se faire une petite place dans les autres produits et services de Meta : Facebook, Instagram, Messenger, WhatsApp ainsi que dans les lunettes connectées. L’entreprise compte aussi proposer son LLM à des tiers, mais au travers d’un « aperçu privé » sous la forme d’une API limitée à quelques partenaires triés sur le volet. Meta espère être en mesure d’ouvrir les futurs modèles Muse à l’open source. Google a pris ce virage avec Gemma4 annoncé la semaine dernière.
Ce premier modèle, qualifié de « petit et rapide », se décline en deux moutures, Instant pour les réponses rapides et Thinking quand il est nécessaire de se creuser un peu le ciboulot. Selon Meta, « les résultats sont sans équivoque : nous pouvons atteindre les mêmes performances avec un ordre de grandeur en moins [généralement cela fait référence à un rapport de 10x moins, ndlr] sur la puissance de calcul par rapport à notre modèle précédent, Llama 4 Maverick ». Un troisième mode, Contemplating, saura orchestrer plusieurs agents raisonnant en parallèle ; il sera déployé progressivement dans meta.ai.
Au vu des benchmarks fournis par Meta, le MSL a effectivement soigné les fonctions multimodales, Muse Spark surclassant la concurrence sur l’interprétation des images, des graphiques et des interfaces ; le contraire aurait été étonnant dans des benchmarks mis en avant par Meta.
C’est plus inégal sur les tâches de raisonnement pur (logique, maths), tandis que le modèle se débrouille plutôt bien en code, sans être leader incontestable. Il affiche également une vraie spécialisation dans le domaine de la santé. Meta admet des « gaps » de performance dans les systèmes agentiques et les flux de coding.
Sur le plan de la sécurité, Meta ne livre pas encore de rapport de sécurité complet, mais assure que Muse Spark adopte un comportement de refus « robuste » dans des domaines à haut risque (armes chimiques et biologiques). L’entreprise promet également que le modèle n’a pas présenté de capacités autonomes ni de « tendances dangereuses » qui lui permettraient de mettre en œuvre des scénarios de menace dans le domaine de la cybersécurité.
Muse Spark peut s’enorgueillir d’avoir décroché le plus haut niveau de « conscience de l’évaluation » observé à ce jour parmi les modèles testés par le labo indépendant Apollo Research. Mark Zuckerberg en est persuadé : les futurs modèles Muse permettront à Meta de créer des services qui ne se contentent pas de répondre aux questions, mais d’agir aussi comme des agents « capables d’effectuer des tâches à votre place ». Il se dit convaincu que ses LLM soutiendront « une vague de créativité, d’entrepreneuriat, de croissance et d’amélioration de la santé. »
Vous connaissez Mario Kart, la course de voitures version Nintendo. Mario Kart World, lancé en juin 2025, est le neuvième et actuellement dernier épisode de la franchise. « Une première dans l’histoire de la série, le jeu prend place dans un monde ouvert où tous les circuits sont interconnectés », rappelle Wikipédia.
Vous connaissez aussi certainement GeoGuessr, un jeu (lancé en 2013 et basé sur Google Maps) dans lequel il faut trouver l’endroit où l’on se trouve dans le monde à partir d’une image. Voici le mariage entre les deux avec Mario Kart World Guessr, de Mario Universalis.
Le principe est simple : une photo s’affiche et vous devez trouver son emplacement au plus près sur la carte, pour marquer jusqu’à 5 000 points par photo. Ce jeu est sorti durant l’été dernier avec une publication sur Reddit pour l’annoncer, mais il est remonté à la surface suite à un message publié par Nintendojo.
Avec son prix serré et une fiche technique solide, le MacBook Neo a, semble-t-il, trouvé son public. Sauf que maintenant, Apple doit composer avec le succès : le stock de puces s’épuise et les coûts grimpent en flèche.
Le MacBook Neo est une anomalie non seulement dans le catalogue d’Apple (qui s’attaque de front au marché de l’ordinateur portable d’entrée de gamme), mais aussi pour le reste de l’industrie. Cette machine à la fiche technique somme toute solide détonne en effet, au vu de l’explosion des prix de la mémoire. Et dans ce contexte, le constructeur parvient à la proposer à 699 euros… on a presque envie d’ajouter « seulement ».
Un problème de riche pour Apple
Pendant que les autres constructeurs se grattent la tête pour esquisser une alternative robuste au MacBook Neo, Apple serait maintenant confrontée à un problème de riche. La demande serait si forte que les stocks de l’ordinateur auraient fondu : sur l’Apple Store en ligne, il faut désormais attendre de 2 à 3 semaines avant de recevoir une commande. Mais produire de nouvelles unités n’est pas aussi simple que d’appuyer sur un bouton vert.
Pour réduire la facture des composants de son petit MacBook, Apple a pioché dans son large répertoire. Ainsi, la puce A18 Pro qui bat sous le capot de la machine n’est autre que la puce de l’iPhone 16 Pro de l’an dernier. Enfin, presque.
Le circuit graphique de la puce du MacBook Neo se contente en effet de 5 cœurs, contre 6 cœurs dans l’iPhone 16 Pro. Apple exploite ici une technique déjà mise en œuvre dans plusieurs autres de ses produits « bon marché » (tout est relatif) : le binning. Toutes les puces A18 Pro ne sont pas nées égales, il peut arriver à TSMC de produire des wafers présentant des défauts. Plutôt que de jeter les puces défectueuses, Apple les recycle dans d’autres appareils, ce qui est d’ailleurs une pratique commune dans toute l’industrie des processeurs.
Tim Culpan, un ancien de Bloomberg qui a manifestement conservé des sources au sein de la chaîne d’approvisionnement d’Apple, rapporte dans sa dernière newsletter que la commande initiale d’Apple auprès de Quanta et Foxconn était de 5 à 6 millions d’unités.
Le problème, c’est qu’avec une si forte demande, le stock de puces A18 Pro destinées au MacBook Neo serait au plus bas. L’A18 Pro de l’ordinateur est (ou était) fabriquée selon le node N3E (3 nm) de TSMC. Si Apple veut relancer la ligne de production de cette puce, il va falloir glisser un petit billet ou deux pour couper la file d’attente. C’est toujours possible, mais les marges du constructeur risquent d’y laisser quelques plumes.
Apple peut également puiser dans les wafers prévus à l’origine pour d’autres appareils, mais la question du coût se pose là encore. L’A18 Pro du MacBook Neo n’est pas « gratuite », mais c’est du recyclage intelligent de silicium qui aurait sinon pu finir à la poubelle. Relancer une production est une toute autre affaire, ce d’autant qu’il faudrait désactiver un des cœurs GPU de ces puces pour que la fiche technique du portable reste dans les clous.
La question centrale du prix
À cela s’ajoutent d’autres coûts : les prix de la mémoire vive, le stockage SSD, et même de l’aluminium ne cessent de grimper. Apple a une puissance de feu telle qu’elle parvient à obtenir de ses fournisseurs des tarifs plus intéressants pour ces composants, mais il n’empêche qu’ils coûtent plus cher aujourd’hui qu’hier.
Pour s’en sortir sans trop grignoter ses précieuses marges, Apple peut toujours relever le prix du MacBook Neo. Mais ce serait contre-productif, car l’étiquette du portable est son principal atout, très mis en avant dans le marketing du groupe. L’entreprise peut aussi décider d’arrêter de vendre le modèle à 699 euros (256 Go) pour ne plus proposer que la version mieux équipée (512 Go et Touch ID) à 799 euros. Mais là encore, ça ferait perdre de l’intérêt à cette gamme pensée pour séduire les petits budgets.
La dernière échappatoire serait de faire le dos rond, d’accepter de perdre des ventes, et d’accélérer la production de la future génération du MacBook Neo. Selon Tim Culpan, Apple prépare un modèle équipé d’une puce A19 Pro, la même que celle des iPhone 17 Pro, qui intègre 12 Go de mémoire unifiée (contre 8 Go pour l’A18 Pro). Il s’attend à ce que le constructeur reprenne la même stratégie, en utilisant des A19 Pro contenant un GPU avec 5 cœurs actifs, au lieu de 6 habituellement. Ce nouveau modèle serait lancé l’année prochaine mais qui sait, peut-être qu’il faudra aller plus vite.
Il y a quelque chose qui coince chez Microsoft. Les développeurs de VeraCrypt, WireGuard et Windscribe ont subi une suspension de leur compte, sans réelle explication de la part de l’éditeur. Résultat : impossible de livrer des mises à jour. La situation devrait heureusement se résoudre très bientôt, suite à l’intervention d’un vice-président de Microsoft.
Mise à jour, 10/04 — Tout finit par s’arranger pour le mieux. Mounir Idrassi, le développeur de VeraCrypt, nous a en effet informé que son accès au portail Microsoft Partner Center a été rétabli suite à l’intervention de Scott Hanselmann. C’est aussi le cas pour Windscribe et pour WireGuard.
Article original, 9/04 — Mauvaise surprise pour les développeurs du logiciel de chiffrement VeraCrypt et du protocole VPN WireGuard, deux applications open source. Visiblement sans crier gare, Microsoft a suspendu leur compte. « Microsoft a résilié le compte que j’utilisais depuis des années pour signer les pilotes Windows et le bootloader », déplore Mounir Idrassi, l’auteur de VeraCrypt.
Microsoft aux abonnés absents
Il n’a reçu « aucun email ni avertissement préalable », affirme-t-il dans un message sur SourceForge remontant au 30 mars. Contacté par Next, il indique simplement qu’il « doit donc y avoir une nouvelle politique chez Microsoft », mais il regrette amèrement le « manque de transparence et de communication de la part de Microsoft »
Même discours ce 8 avril chez Jason A. Donenfeld, créateur et animateur principal de WireGuard. « Un jour, je me connecte pour publier une mise à jour et là, catastrophe : compte suspendu», décrit-il sur le forum de Hacker News.
Dans les deux cas, les développeurs n’ont personne vers qui se tourner chez Microsoft. « Je n’ai obtenu que des réponses automatisées et des bots. Je n’ai pas réussi à joindre un interlocuteur humain », regrette Mounir Idrassi.
Conséquences directes : impossible de publier des mises à jour
Dans les deux cas, les conséquences sont identiques : impossible de publier des mises à jour, ce qui est particulièrement problématique en cas de faille de sécurité. « Imaginez qu’il y ait une faille critique d’exécution de code à distance dans WireGuard, exploitée activement, et que je doive mettre à jour immédiatement (c’est purement hypothétique, pas de panique !) », explique Jason A. Donenfeld. « Dans un cas comme celui-là, Microsoft me laisserait avec les mains entièrement liées. »
Pour VeraCrypt, les mises à jour pour Linux et macOS restent possibles, mais Windows est la plateforme utilisée par la majorité des utilisateurs. Cette suspension de compte est « un coup dur pour le projet », et elle a « des conséquences sur mon activité professionnelle quotidienne », indique son développeur. Il précise à TechCrunch que pour le moment l’utilitaire continue de fonctionner normalement, et qu’aucune faille de sécurité n’a été identifiée récemment.
Si la situation devait rester en l’état, les utilisateurs de VeraCrypt ayant activé le chiffrement de leur système d’exploitation risquent de rencontrer un vrai gros problème à partir de cet été, prévient Mounir Idrassi : « Microsoft va révoquer l’autorité de certification qui a été utilisée pour signer le bootloader de VeraCrypt ».
Une nouvelle certification Microsoft est nécessaire pour que le bootloader puisse continuer de fonctionner, mais sans accès à son compte, le développeur ne pourra pas appliquer cette nouvelle signature. Résultat : le démarrage de Windows chiffré avec VeraCrypt sera impossible. C’est l’équivalent d’« une condamnation à mort ».
Enfin un signe de vie
VeraCrypt et WireGuard ne sont pas les deux seuls dans cette panade. Le service VPN Windscribe a lui aussi subi une suspension de son compte Microsoft (vérifié depuis plus de 8 ans, selon l’éditeur). Mais dans ce dernier cas, l’éditeur a donné un signe de vie. Scott Hanselmann, vice-président de Microsoft et membre de l’équipe technique GitHub, a en effet répondu sur X que le problème devrait être réparé « sous peu ».
En plus de Windscribe, le dirigeant a contacté Jason A. Donenfeld et Mounir Idrassi, ce que le développeur de VeraCrypt a confirmé auprès de Next. Il attend désormais de voir la suite qui sera donnée à son dossier :
« Le principal problème reste toutefois le manque de transparence et de communication de la part de Microsoft. J’ai été choqué de lire dans la notification affichée sur mon compte qu’aucun recours n’était possible ! […] Il s’agissait simplement d’un problème de communication et de vérification [selon Scott Hanselmann], mais il devrait y avoir une communication claire pour avertir les auteurs de ce type de situation. »
On peut espérer que la situation se débloque pour tout le monde rapidement. Dans sa réponse à Windscribe, Scott Hanselmann pointe vers un billet de blog du Hardware Dev Center remontant au 1ᵉʳ octobre 2025. Microsoft y détaille une nouvelle exigence de vérification de compte pour tous les partenaires du programme matériel Windows qui n’auraient pas complété l’opération de vérification depuis avril 2024. Ce programme s’occupe aussi de la certification des pilotes logiciels.
Le processus de vérification devait être effectué sous les 30 jours, à compter du 16 octobre 2025. Microsoft a mis à jour le billet le 3 mars : la vérification des comptes pour le programme a pris fin. « Les comptes qui n’ont pas finalisé avec succès cette vérification et ont reçu un statut « rejeté » ont été suspendus du programme Windows Hardware, et les soumissions provenant de ces comptes ne sont plus autorisées », ajoute l’entreprise.
Microsoft : « Tout est en train d’être corrigé »
Windscribe ne décolère pas : « Nous essayons de résoudre cela depuis plus d’un mois, et nous n’avançons pas. Le support est inexistant. Quelqu’un connaît-il un humain avec un cerveau qui fonctionne encore chez Microsoft et qui pourrait aider ? ». Le bruit engendré par cette affaire fait bouger les choses.
Il y a quelques heures à peine, Windscribe affirmait que « certaines personnes bienveillantes chez Microsoft ont pris contact et apparemment, cela est en cours de résolution ». Cette nuit toujours, Scott Hanselman ajoute avoir parlé à Mounir Idrassi et Jason Donenfeld : « Tout est en train d’être corrigé pendant qu’on parle ».