Un chercheur a découvert dans le composant React Server Components une faille dont le score de gravité CVSS atteint la note maximale de 10. Des correctifs ont été rapidement publiés et il est recommandé de mettre à jour les applications et autres composants concernés le plus rapidement possible.
Dans une note publiée le 3 décembre, la fondation React a averti d’une faille extrêmement critique dans le framework (cadriciel) React Server Components. Estampillée CVE-2025-55182, elle a reçu la plus grande note possible au score CVSS, soit 10.
Dans son billet de blog, la fondation indique que le signalement de la faille a été fait le 29 novembre par le chercheur Lachlan Davidson. Elle réside dans les versions 19.0, 19.1.0, 19.1.1 et 19.2.0 des composants suivants : react-server-dom-webpack, react-server-dom-parcel et react-server-dom-turbopack.
Exploitée, la faille peut permettre l’exécution de commandes arbitraires à distance. Elle a même reçu un nom : React2Shell. Initialement, deux failles avaient été signalées. La seconde, dans Node.js et numérotée CVE-2025-66478, a cependant été rejetée par le NIST américain, car il s’agissait finalement du même mécanisme.
Une grande facilité d’exploitation
Selon la société Wiz qui s’est penchée sur la question, une grosse partie du problème tient à l’exploitation particulièrement simple de cette faille, faisant exploser son score CVSS. Deux composantes sont mises en avant : la faille est exploitable dans toutes les configurations, et il ne suffit que d’une requête HTTP spécialement conçue pour déclencher la suite.
La société explique qu’il s’agit d’un cas de désérialisation logique. Il découle de la manière dont les React Server Components (RSC) gèrent les requêtes. Une personne non authentifiée pourrait ainsi créer une requête HTTP malveillante à n’importe quel point de terminaison Server Function qui, au moment où React s’occupe de la désérialisation, entraine l’exécution d’un code JavaScript arbitraire sur le serveur.
Dans son billet, la fondation React n’en dit pas plus, car elle explique attendre une diffusion plus importante des correctifs avant de donner plus de détails.
Toute bibliothèque utilisant RSC (comme Vite RSC, Parcel RSC, React Router RSC preview, RedwoodJS, ou encore Waku) est concernée par la faille et il faut donc surveiller l’arrivée de mises à jour, déjà publiées dans de nombreux cas. « La vulnérabilité affecte les configurations par défaut du framework, ce qui signifie que les déploiements standards sont immédiatement exploitables sans conditions particulières », indique la société de sécurité Endor Labs.
Que faire ?
L’urgence est d’appliquer les nouvelles versions 19.0.1, 19.1.2 et 19.2.1 des trois composants react-server-dom. Jusqu’à ce qu’ils puissent être déployés, il est conseillé d’appliquer des règles WAF (Web Application Firewall).
Plusieurs entreprises de premier plan ont d’ailleurs réagi à ce sujet. Cloudflare a annoncé dès le 3 décembre avoir mis à jour son WAF pour protéger ses clients. L’éditeur ajoute que même si les nouvelles règles bloquent les éventuelles attaques, il reste recommandé de mettre à jour aussi vite que possible les composants logiciels concernés.
Même son de cloche chez Google pour sa Cloud Armor, qui décrit les nouvelles règles du pare-feu applicatif comme une mesure temporaire d’atténuation. On retrouve les mêmes éléments de langage chez Akamai et AWS.
Un chercheur a découvert dans le composant React Server Components une faille dont le score de gravité CVSS atteint la note maximale de 10. Des correctifs ont été rapidement publiés et il est recommandé de mettre à jour les applications et autres composants concernés le plus rapidement possible.
Dans une note publiée le 3 décembre, la fondation React a averti d’une faille extrêmement critique dans le framework (cadriciel) React Server Components. Estampillée CVE-2025-55182, elle a reçu la plus grande note possible au score CVSS, soit 10.
Dans son billet de blog, la fondation indique que le signalement de la faille a été fait le 29 novembre par le chercheur Lachlan Davidson. Elle réside dans les versions 19.0, 19.1.0, 19.1.1 et 19.2.0 des composants suivants : react-server-dom-webpack, react-server-dom-parcel et react-server-dom-turbopack.
Exploitée, la faille peut permettre l’exécution de commandes arbitraires à distance. Elle a même reçu un nom : React2Shell. Initialement, deux failles avaient été signalées. La seconde, dans Node.js et numérotée CVE-2025-66478, a cependant été rejetée par le NIST américain, car il s’agissait finalement du même mécanisme.
Une grande facilité d’exploitation
Selon la société Wiz qui s’est penchée sur la question, une grosse partie du problème tient à l’exploitation particulièrement simple de cette faille, faisant exploser son score CVSS. Deux composantes sont mises en avant : la faille est exploitable dans toutes les configurations, et il ne suffit que d’une requête HTTP spécialement conçue pour déclencher la suite.
La société explique qu’il s’agit d’un cas de désérialisation logique. Il découle de la manière dont les React Server Components (RSC) gèrent les requêtes. Une personne non authentifiée pourrait ainsi créer une requête HTTP malveillante à n’importe quel point de terminaison Server Function qui, au moment où React s’occupe de la désérialisation, entraine l’exécution d’un code JavaScript arbitraire sur le serveur.
Dans son billet, la fondation React n’en dit pas plus, car elle explique attendre une diffusion plus importante des correctifs avant de donner plus de détails.
Toute bibliothèque utilisant RSC (comme Vite RSC, Parcel RSC, React Router RSC preview, RedwoodJS, ou encore Waku) est concernée par la faille et il faut donc surveiller l’arrivée de mises à jour, déjà publiées dans de nombreux cas. « La vulnérabilité affecte les configurations par défaut du framework, ce qui signifie que les déploiements standards sont immédiatement exploitables sans conditions particulières », indique la société de sécurité Endor Labs.
Que faire ?
L’urgence est d’appliquer les nouvelles versions 19.0.1, 19.1.2 et 19.2.1 des trois composants react-server-dom. Jusqu’à ce qu’ils puissent être déployés, il est conseillé d’appliquer des règles WAF (Web Application Firewall).
Plusieurs entreprises de premier plan ont d’ailleurs réagi à ce sujet. Cloudflare a annoncé dès le 3 décembre avoir mis à jour son WAF pour protéger ses clients. L’éditeur ajoute que même si les nouvelles règles bloquent les éventuelles attaques, il reste recommandé de mettre à jour aussi vite que possible les composants logiciels concernés.
Même son de cloche chez Google pour sa Cloud Armor, qui décrit les nouvelles règles du pare-feu applicatif comme une mesure temporaire d’atténuation. On retrouve les mêmes éléments de langage chez Akamai et AWS.
Coup sur coup, deux entreprises françaises ont reconnu des fuites de données. La quantité d’informations a priori dans la nature n’est cependant pas la même dans les deux cas, la fuite chez Médecin Direct étant la plus grave.
Alors que France Travail annonçait une nouvelle fuite de données il y a quelques jours, deux nouveaux piratages ont été confirmés en France. Pour le magasin de bricolage, SaxX a averti d’une fuite le 2 décembre. À ce moment, l’enseigne commençait à envoyer des e-mails pour prévenir les clients concernés que leurs données avaient été piratées. Dans la capture du courrier, on pouvait lire que celles-ci comprenaient le nom, le prénom, le numéro de téléphone, l’adresse e-mail, l’adresse postale et la date de naissance. Leroy Merlin précisant également que les coordonnées bancaires et les mots de passe n’étaient pas touchés.
Ce 4 décembre, Leroy Merlin a confirmé l’information au Monde, via l’AFP. « Les clients concernés ont été informés dès que nous avons pris connaissance de l’attaque », a ainsi indiqué l’enseigne, qui a ajouté que des vérifications étaient « en cours » pour mesurer l’étendue du problème. Comme toujours dans ce genre de cas, la CNIL a été prévenue (les entreprises y sont tenues par la loi) et une plainte va être déposée. Il est demandé aux clients, encore une fois, d’être vigilants sur l’usage frauduleux qui pourrait être fait de leurs données.
Médecin Direct : des données médicales dans la nature
Dans le cas de Médecin Direct, une plateforme de téléconsultation, le problème est plus grave. SaxX a publié hier la capture du courrier envoyé aux clients concernés. On peut y lire que des informations ont pu être dérobées. D’abord à caractère personnel, avec globalement les mêmes données que pour Leroy Merlin, auxquelles s’ajoute le numéro de sécurité sociale, s’il a été donné.
Surtout, des données de santé ont pu être exfiltrées : « l’objet de la téléconsultation, les données renseignées dans le questionnaire de pré-consultation, les données échangées par écrit avec le professionnel de santé », précise le courrier. « En revanche, les documents que vous avez pu transmettre ou recevoir à l’occasion de la téléconsultation ne sont pas concernés ». Le pire semble évité, mais les informations décrites peuvent quand même s’avérer très sensibles, selon les cas. On apprend également dans l’e-mail que l’intrusion aurait été détectée le 28 novembre.
À 01net, l’entreprise française a confirmé la fuite, sans développer : « Nos services fonctionnent normalement et nous avons renforcé nos mécanismes de surveillance et de protection. Notre plateforme dispose des niveaux de sécurité conformes au cadre réglementaire strict applicable à la télémédecine. Une enquête sur l’origine de cet incident a été diligentée et nous ne pouvons pas partager davantage de détails à ce stade ».
Dans les deux cas, SaxX affirme que c’est le groupe de pirates Dumpsec qui aurait revendiqué l’attaque. Ils seraient à l’origine d’une grande vague de piratages ces derniers mois, dont les 1 300 mairies que nous évoquions il y a peu.
Les risques sont toujours les mêmes. Ces informations, même quand elles ne sont pas sensibles comme peuvent l’être les données médicales, peuvent être utilisées dans le cadre de campagnes de phishing. Plus les pirates ont d’informations, plus ils peuvent personnaliser leurs tentatives. Avec suffisamment d’informations, le risque peut grimper jusqu’à l’usurpation d’identité.
Coup sur coup, deux entreprises françaises ont reconnu des fuites de données. La quantité d’informations a priori dans la nature n’est cependant pas la même dans les deux cas, la fuite chez Médecin Direct étant la plus grave.
Alors que France Travail annonçait une nouvelle fuite de données il y a quelques jours, deux nouveaux piratages ont été confirmés en France. Pour le magasin de bricolage, SaxX a averti d’une fuite le 2 décembre. À ce moment, l’enseigne commençait à envoyer des e-mails pour prévenir les clients concernés que leurs données avaient été piratées. Dans la capture du courrier, on pouvait lire que celles-ci comprenaient le nom, le prénom, le numéro de téléphone, l’adresse e-mail, l’adresse postale et la date de naissance. Leroy Merlin précisant également que les coordonnées bancaires et les mots de passe n’étaient pas touchés.
Ce 4 décembre, Leroy Merlin a confirmé l’information au Monde, via l’AFP. « Les clients concernés ont été informés dès que nous avons pris connaissance de l’attaque », a ainsi indiqué l’enseigne, qui a ajouté que des vérifications étaient « en cours » pour mesurer l’étendue du problème. Comme toujours dans ce genre de cas, la CNIL a été prévenue (les entreprises y sont tenues par la loi) et une plainte va être déposée. Il est demandé aux clients, encore une fois, d’être vigilants sur l’usage frauduleux qui pourrait être fait de leurs données.
Médecin Direct : des données médicales dans la nature
Dans le cas de Médecin Direct, une plateforme de téléconsultation, le problème est plus grave. SaxX a publié hier la capture du courrier envoyé aux clients concernés. On peut y lire que des informations ont pu être dérobées. D’abord à caractère personnel, avec globalement les mêmes données que pour Leroy Merlin, auxquelles s’ajoute le numéro de sécurité sociale, s’il a été donné.
Surtout, des données de santé ont pu être exfiltrées : « l’objet de la téléconsultation, les données renseignées dans le questionnaire de pré-consultation, les données échangées par écrit avec le professionnel de santé », précise le courrier. « En revanche, les documents que vous avez pu transmettre ou recevoir à l’occasion de la téléconsultation ne sont pas concernés ». Le pire semble évité, mais les informations décrites peuvent quand même s’avérer très sensibles, selon les cas. On apprend également dans l’e-mail que l’intrusion aurait été détectée le 28 novembre.
À 01net, l’entreprise française a confirmé la fuite, sans développer : « Nos services fonctionnent normalement et nous avons renforcé nos mécanismes de surveillance et de protection. Notre plateforme dispose des niveaux de sécurité conformes au cadre réglementaire strict applicable à la télémédecine. Une enquête sur l’origine de cet incident a été diligentée et nous ne pouvons pas partager davantage de détails à ce stade ».
Dans les deux cas, SaxX affirme que c’est le groupe de pirates Dumpsec qui aurait revendiqué l’attaque. Ils seraient à l’origine d’une grande vague de piratages ces derniers mois, dont les 1 300 mairies que nous évoquions il y a peu.
Les risques sont toujours les mêmes. Ces informations, même quand elles ne sont pas sensibles comme peuvent l’être les données médicales, peuvent être utilisées dans le cadre de campagnes de phishing. Plus les pirates ont d’informations, plus ils peuvent personnaliser leurs tentatives. Avec suffisamment d’informations, le risque peut grimper jusqu’à l’usurpation d’identité.
Linus Torvalds est connu pour ses positions franches. On se souvient du doigt d’honneur fait à NVIDIA en 2012, en témoignage de sa colère face au comportement d’une entreprise très peu intéressée par l’open source. Nous avions résumé une partie de ces problèmes dans notre article sur la transition X11/Wayland.
En octobre 2024, Linus Torvalds s’en était pris à Intel et AMD, critiquant leur « matériel bogué » et l’avalanche de modifications logicielles rendues nécessaires par les multiples failles découvertes, bal ouvert début 2018 par Spectre et Meltdown. La même année, il avait d’ailleurs fait une pause pour s’occuper de son caractère, souvent jugé brutal. Mais il lui est arrivé aussi de siffler la fin de la récréation en intervenant dans des débats houleux pour calmer le jeu, notamment dans les discussions vives autour de l’intégration de Rust dans le noyau.
Cette fois, le père du noyau Linux s’en est pris à Elon Musk. Il y a quelques jours, Linus Torvalds apparaissait dans une vidéo du youtubeur Linus Sebastian (chaine Linus Tech Tips), centrée sur le montage d’un nouveau PC pour les besoins du développeur. Les deux Linus discutaient de divers sujets, dont la productivité au travail face à l’IA.
Le youtubeur a ainsi évoqué le cas d’une « grande entreprise » où les développeurs devaient indiquer leur nombre de lignes de code écrites, avec possibilité de licenciement si ce n’était pas assez. Torvalds avait bien sûr un avis très tranché sur la question : « Oh oui, non, tu ne devrais même pas être contrarié là-dessus. C’est juste de l’incompétence. Quiconque pense que c’est un indicateur valable est trop stupide pour travailler dans une entreprise tech ».
Linus Sebastian lui a alors demandé s’il savait de qui il était en train de parler. Devant le « non » de Torvalds, le youtubeur lui a répondu : « Oh. Euh… il a été une figure importante de l’amélioration de l’efficacité du gouvernement américain récemment ». Et Torvalds d’enchainer : « Oh, apparemment j’avais vu juste ».
Linus Torvalds est connu pour ses positions franches. On se souvient du doigt d’honneur fait à NVIDIA en 2012, en témoignage de sa colère face au comportement d’une entreprise très peu intéressée par l’open source. Nous avions résumé une partie de ces problèmes dans notre article sur la transition X11/Wayland.
En octobre 2024, Linus Torvalds s’en était pris à Intel et AMD, critiquant leur « matériel bogué » et l’avalanche de modifications logicielles rendues nécessaires par les multiples failles découvertes, bal ouvert début 2018 par Spectre et Meltdown. La même année, il avait d’ailleurs fait une pause pour s’occuper de son caractère, souvent jugé brutal. Mais il lui est arrivé aussi de siffler la fin de la récréation en intervenant dans des débats houleux pour calmer le jeu, notamment dans les discussions vives autour de l’intégration de Rust dans le noyau.
Cette fois, le père du noyau Linux s’en est pris à Elon Musk. Il y a quelques jours, Linus Torvalds apparaissait dans une vidéo du youtubeur Linus Sebastian (chaine Linus Tech Tips), centrée sur le montage d’un nouveau PC pour les besoins du développeur. Les deux Linus discutaient de divers sujets, dont la productivité au travail face à l’IA.
Le youtubeur a ainsi évoqué le cas d’une « grande entreprise » où les développeurs devaient indiquer leur nombre de lignes de code écrites, avec possibilité de licenciement si ce n’était pas assez. Torvalds avait bien sûr un avis très tranché sur la question : « Oh oui, non, tu ne devrais même pas être contrarié là-dessus. C’est juste de l’incompétence. Quiconque pense que c’est un indicateur valable est trop stupide pour travailler dans une entreprise tech ».
Linus Sebastian lui a alors demandé s’il savait de qui il était en train de parler. Devant le « non » de Torvalds, le youtubeur lui a répondu : « Oh. Euh… il a été une figure importante de l’amélioration de l’efficacité du gouvernement américain récemment ». Et Torvalds d’enchainer : « Oh, apparemment j’avais vu juste ».
La Russie bloque désormais les communications FaceTime sur les appareils Apple, principalement l’iPhone. FaceTime permet pour rappel des communications (réellement) chiffrées de bout en bout entre appareils frappés d’une pomme.
La nouvelle a été retransmise il y a quelques heures par Reuters, qui en a obtenu confirmation par l’agence Roskomnadzor, régulateur des télécommunications en Russie. Contactée par nos confrères, l’agence a répondu : « Selon les agences de maintien de l’ordre, FaceTime est utilisé pour organiser et mener des attaques terroristes dans le pays, recruter des auteurs et commettre des fraudes et d’autres crimes contre des citoyens russes ». Roskomnadzor n’a pas élaboré.
Toujours selon Reuters, les symptômes ont commencé aujourd’hui même. Bien qu’Apple ne vende plus ses produits depuis l’attaque contre l’Ukraine (la page officielle russe renvoie directement au support technique), de nombreux iPhone restent en circulation. Mais depuis peu, les appels FaceTime échouent, l’application indiquant « Utilisateur indisponible ». Selon un témoignage, la demande d’appel est bien émise, mais le contact ne s’établit pas une fois la communication acceptée.
Le blocage de FaceTime n’est que la dernière décision en date de la Russie contre les technologies occidentales. Au cours des trois dernières années, de nombreux services ont été concernés, avec par exemple Instagram dès mars 2022. En aout, on apprenait que l’agence Roskomnadzor avait annoncé le blocage partiel des appels sur WhatsApp et Telegram, et que le magasin d’applications RuStore devenait obligatoire sur les nouveaux smartphones.
RuStore a été développé par VK, l’entreprise russe possédant le réseau social du même nom, ce dernier ayant été créé par Pavel Durov, également fondateur de Telegram. La même entreprise a développé la messagerie Max, que le gouvernement russe met largement en avant désormais. Selon Reuters, de nombreuses critiques se sont élevées pour dénoncer un outil de surveillance des citoyens russes, accusations réfutées par la presse d’État.
La Russie bloque désormais les communications FaceTime sur les appareils Apple, principalement l’iPhone. FaceTime permet pour rappel des communications (réellement) chiffrées de bout en bout entre appareils frappés d’une pomme.
La nouvelle a été retransmise il y a quelques heures par Reuters, qui en a obtenu confirmation par l’agence Roskomnadzor, régulateur des télécommunications en Russie. Contactée par nos confrères, l’agence a répondu : « Selon les agences de maintien de l’ordre, FaceTime est utilisé pour organiser et mener des attaques terroristes dans le pays, recruter des auteurs et commettre des fraudes et d’autres crimes contre des citoyens russes ». Roskomnadzor n’a pas élaboré.
Toujours selon Reuters, les symptômes ont commencé aujourd’hui même. Bien qu’Apple ne vende plus ses produits depuis l’attaque contre l’Ukraine (la page officielle russe renvoie directement au support technique), de nombreux iPhone restent en circulation. Mais depuis peu, les appels FaceTime échouent, l’application indiquant « Utilisateur indisponible ». Selon un témoignage, la demande d’appel est bien émise, mais le contact ne s’établit pas une fois la communication acceptée.
Le blocage de FaceTime n’est que la dernière décision en date de la Russie contre les technologies occidentales. Au cours des trois dernières années, de nombreux services ont été concernés, avec par exemple Instagram dès mars 2022. En aout, on apprenait que l’agence Roskomnadzor avait annoncé le blocage partiel des appels sur WhatsApp et Telegram, et que le magasin d’applications RuStore devenait obligatoire sur les nouveaux smartphones.
RuStore a été développé par VK, l’entreprise russe possédant le réseau social du même nom, ce dernier ayant été créé par Pavel Durov, également fondateur de Telegram. La même entreprise a développé la messagerie Max, que le gouvernement russe met largement en avant désormais. Selon Reuters, de nombreuses critiques se sont élevées pour dénoncer un outil de surveillance des citoyens russes, accusations réfutées par la presse d’État.
Dans le Patch Tuesday de novembre, Microsoft a corrigé une faille exploitée depuis des années. Non-critique, l’entreprise ne la considérait d’ailleurs même pas comme une vulnérabilité. Elle a pourtant été utilisée très activement dans plusieurs campagnes.
Microsoft a discrètement corrigé une faille dans les fichiers raccourcis Windows (LNK) qui était exploitée activement depuis 2017 par de nombreux acteurs malveillants, rapporte ACROS Security (relayé par The Hacker News).
Dangerosité variable
Estampillée CVE-2025-9491, cette vulnérabilité permettait de cacher des commandes malveillantes dans les fichiers LNK en exploitant une limitation de l’interface Windows : la boîte de dialogue des propriétés n’affichait que les 260 premiers caractères du champ « Target », alors que la structure du fichier autorise jusqu’à 32 000 caractères. Les pirates pouvaient ainsi créer des raccourcis contenant des commandes arbitraires invisibles à l’inspection visuelle, en utilisant des caractères d’espacement et en plaçant le code malveillant au-delà de la limite d’affichage.
La dangerosité de cette faille varie selon les acteurs l’ayant cataloguée. Le NIST lui a donné un score CVSS de 7,8, lui affectant une dangerosité élevée. Même dangerosité pour la Zero Day Initiative de Trend Micro (qui en a parlé la première en mars dernier), avec un score de 7. La CISA (Agence de cybersécurité et de sécurité des infrastructures) américaine ne lui accorde en revanche qu’un score de 3.
Une faille exploitée activement
Cette vulnérabilité a été exploitée par au moins 11 groupes APT chinois, iraniens, nord-coréens et russes dans des campagnes d’espionnage et de vol de données, selon Trend Micro. Le groupe XDSpy l’a notamment utilisée pour distribuer le malware XDigo contre des entités gouvernementales d’Europe de l’Est en juin 2025, et des acteurs chinois ont ciblé des entités diplomatiques et gouvernementales européennes avec PlugX en octobre 2025, selon des rapports de HarfangLab et Arctic Wolf.
À l’époque, Microsoft avait refusé de la corriger, arguant qu’elle ne justifiait pas un correctif immédiat car elle nécessitait une interaction utilisateur et que Windows affichait déjà des avertissements sur les fichiers non fiables. Dans une note publiée le 1ᵉʳ novembre, Microsoft explique ne même pas considérer CVE-2025-9491 comme une faille, considérant que l’utilisateur est prévenu plusieurs fois avant de continuer.
Quoi qu’il en soit, le correctif modifie le comportement de la boîte de dialogue des propriétés pour afficher l’intégralité de la commande Target, quelle que soit sa longueur.
Dans le Patch Tuesday de novembre, Microsoft a corrigé une faille exploitée depuis des années. Non-critique, l’entreprise ne la considérait d’ailleurs même pas comme une vulnérabilité. Elle a pourtant été utilisée très activement dans plusieurs campagnes.
Microsoft a discrètement corrigé une faille dans les fichiers raccourcis Windows (LNK) qui était exploitée activement depuis 2017 par de nombreux acteurs malveillants, rapporte ACROS Security (relayé par The Hacker News).
Dangerosité variable
Estampillée CVE-2025-9491, cette vulnérabilité permettait de cacher des commandes malveillantes dans les fichiers LNK en exploitant une limitation de l’interface Windows : la boîte de dialogue des propriétés n’affichait que les 260 premiers caractères du champ « Target », alors que la structure du fichier autorise jusqu’à 32 000 caractères. Les pirates pouvaient ainsi créer des raccourcis contenant des commandes arbitraires invisibles à l’inspection visuelle, en utilisant des caractères d’espacement et en plaçant le code malveillant au-delà de la limite d’affichage.
La dangerosité de cette faille varie selon les acteurs l’ayant cataloguée. Le NIST lui a donné un score CVSS de 7,8, lui affectant une dangerosité élevée. Même dangerosité pour la Zero Day Initiative de Trend Micro (qui en a parlé la première en mars dernier), avec un score de 7. La CISA (Agence de cybersécurité et de sécurité des infrastructures) américaine ne lui accorde en revanche qu’un score de 3.
Une faille exploitée activement
Cette vulnérabilité a été exploitée par au moins 11 groupes APT chinois, iraniens, nord-coréens et russes dans des campagnes d’espionnage et de vol de données, selon Trend Micro. Le groupe XDSpy l’a notamment utilisée pour distribuer le malware XDigo contre des entités gouvernementales d’Europe de l’Est en juin 2025, et des acteurs chinois ont ciblé des entités diplomatiques et gouvernementales européennes avec PlugX en octobre 2025, selon des rapports de HarfangLab et Arctic Wolf.
À l’époque, Microsoft avait refusé de la corriger, arguant qu’elle ne justifiait pas un correctif immédiat car elle nécessitait une interaction utilisateur et que Windows affichait déjà des avertissements sur les fichiers non fiables. Dans une note publiée le 1ᵉʳ novembre, Microsoft explique ne même pas considérer CVE-2025-9491 comme une faille, considérant que l’utilisateur est prévenu plusieurs fois avant de continuer.
Quoi qu’il en soit, le correctif modifie le comportement de la boîte de dialogue des propriétés pour afficher l’intégralité de la commande Target, quelle que soit sa longueur.
Il y a un mois, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam. Le mouvement était d’autant plus intéressant qu’il intervenait quelques semaines après la fin de support de Windows 10. La question restait cependant en suspens : s’agissait-il d’un simple pic ou la dynamique allait-elle être confirmée ?
Dans les derniers chiffres publiés par la plateforme de Valve, on peut voir que Linux confirme bien cette tendance. Sa part de marché, toutes distributions confondues, est en légère augmentation avec 3,2 %.
Le score fait toujours pâle figure devant un Windows triomphant et ses 94,79 %, mais il témoigne d’un changement qui semble s’inscrire dans le temps, entre joueurs et joueuses gardant leurs installations et nouveaux arrivants.
Comme pour les chiffres du mois dernier, SteamOS est la distribution la plus utilisée, avec 26,4 %, grâce au Steam Deck. Les trois autres distributions les plus utilisées restent Arch Linux (9,97 %), Linux Mint 22.2 (7,36 %) et CachyOS (6,74 %), une distribution spécialisée dans le jeu vidéo. Dans ce domaine d’ailleurs, Bazzite fait un bond de 1,29 point pour atteindre 5,53 %. Debian 13 est référencée pour la première fois avec 1,58 %.
Si les chiffres ne témoignent pas d’un séisme, ils restent intéressants à surveiller par leurs implications. Le jeu vidéo a été jusque-là une chasse gardée de Microsoft, l’immense majorité des jeux étant bâtis pour DirectX et autres technologies Windows. Les agacements autour de Windows 11 et l’obsession de Microsoft pour l’IA pourraient encore influer sur les parts de marché, mais il est probable que les nouveaux PC soient encore vendus avec Windows pour longtemps.
Il y a un mois, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam. Le mouvement était d’autant plus intéressant qu’il intervenait quelques semaines après la fin de support de Windows 10. La question restait cependant en suspens : s’agissait-il d’un simple pic ou la dynamique allait-elle être confirmée ?
Dans les derniers chiffres publiés par la plateforme de Valve, on peut voir que Linux confirme bien cette tendance. Sa part de marché, toutes distributions confondues, est en légère augmentation avec 3,2 %.
Le score fait toujours pâle figure devant un Windows triomphant et ses 94,79 %, mais il témoigne d’un changement qui semble s’inscrire dans le temps, entre joueurs et joueuses gardant leurs installations et nouveaux arrivants.
Comme pour les chiffres du mois dernier, SteamOS est la distribution la plus utilisée, avec 26,4 %, grâce au Steam Deck. Les trois autres distributions les plus utilisées restent Arch Linux (9,97 %), Linux Mint 22.2 (7,36 %) et CachyOS (6,74 %), une distribution spécialisée dans le jeu vidéo. Dans ce domaine d’ailleurs, Bazzite fait un bond de 1,29 point pour atteindre 5,53 %. Debian 13 est référencée pour la première fois avec 1,58 %.
Si les chiffres ne témoignent pas d’un séisme, ils restent intéressants à surveiller par leurs implications. Le jeu vidéo a été jusque-là une chasse gardée de Microsoft, l’immense majorité des jeux étant bâtis pour DirectX et autres technologies Windows. Les agacements autour de Windows 11 et l’obsession de Microsoft pour l’IA pourraient encore influer sur les parts de marché, mais il est probable que les nouveaux PC soient encore vendus avec Windows pour longtemps.
Dans le cadre de sa conférence annuelle re:Invent 2025, AWS a une nouvelle fois annoncé une longue suite d’améliorations liées à l’IA, dont sa famille de modèles Nova 2. De nouveaux agents ont également été présentés, ainsi que le service Forge, qui doit permettre la création de modèles Nova personnalisés.
La grand-messe annuelle d’AWS pour les développeurs bat actuellement son plein à Las Vegas (elle finit le 5 décembre). Comme toujours depuis quelques années, il n’est pratiquement question que d’intelligence artificielle, avec notamment le lancement de la famille Nova 2 pour cette cuvée 2025. On trouve aussi une flopée d’annonces pour les agents, et le lancement de la puce Trainium3 via des offres maison, comme nous l’avons déjà indiqué.
La famille Nova, un lot de modèles maison, revient cette année dans une version 2. Contrairement à l’année dernière où seuls des modèles texte avaient été lancés, AWS couvre cette fois tous les angles.
L’entreprise met particulièrement en avant son Nova 2 Lite, un petit modèle de raisonnement multimodal placé en face de Haiku 4.5 chez Anthropic, GPT 5 Mini chez OpenAI et Gemini 2.5 Flash chez Google (Gemini 3 n’a pour l’instant qu’une version Pro). Ce modèle Lite est présenté comme une alternative solide, pas un vainqueur toutes catégories, même s’il prend la tête dans environ deux tiers des benchmarks présentés.
Si Lite est surtout présenté comme le modèle plus rentable par AWS, d’autres sont présents. On trouve ainsi Nova 2 Pro, orienté vers les tâches complexes, tandis qu’Omni est la version à tout faire, capable de générer tous types de contenus. Ce modèle dispose notamment d’une fenêtre contextuelle d’un million de jetons, prend plus de 200 langues en compte en entrée et une dizaine en sortie. Comme toujours dans ces gammes de modèles, le prix grimpe avec les capacités et le nombre de paramètres.
On se souvient également qu’en avril dernier, AWS avait ajouté Nova Sonic à ses modèles pour viser les échanges vocaux. L’entreprise n’attend pas un an cette fois, Nova Sonic 2 prend déjà la relève. De manière prévisible, la nouvelle mouture présente des voix plus naturelles, de meilleures performances et une meilleure ouverture sur les agents. Comme pour Lite, AWS ne revendique pas la couronne dans tous les tests pour Sonic 2, mais une version plus aboutie du modèle et gérant un plus grand nombre de langues.
« Pour les développeurs, cela signifie que vous pouvez créer des applications qui servent des audiences mondiales sans avoir besoin de modèles vocaux distincts pour chaque langue. Une application de support client pourrait gérer un dialogue qui commence en anglais et passe à l’espagnol en plein milieu d’une conversation, tout en conservant le même flux et les mêmes caractéristiques vocales tout au long de la conversation », indique AWS dans un billet de blog.
En parallèle de ces nouveaux modèles, AWS a présenté Nova Forge, un service permettant aux clients de créer leurs propres modèles Nova. Selon AWS, Forge vient combler un vide, car les approches habituelles pour personnaliser les modèles – ingénierie des prompts, RAG, ajustement fin personnalisé, apprentissage par renforcement… – ont toutes des limites. Forge se propose donc de créer des modèles entrainés sur les données spécifiques de l’entreprise cliente pour obtenir de « vrais modèles personnalisés ». Toutes les étapes seront prises en charge selon AWS, dont le pré-entrainement, l’entrainement intermédiaire et l’affinage supervisé. Forge n’est pour l’instant disponible que dans la région US East (Virginie du Nord), celle-là même qui avait provoqué une vaste panne en octobre.
À noter qu’AWS annonce aussi la disponibilité sur Bedrock de 18 nouveaux modèles open source, dont ceux de la famille Mistral 3, tout juste lancée.
La guerre sur les capacités agentiques continue, avec d’abord un renforcement de la plateforme AgentCore AI, qui sert à les construire chez Amazon. L’un des principaux ajouts est la fonction Policy, qui permet aux utilisateurs de définir des limites pour les interactions avec les agents ou entre eux. Ces barrières sont ensuite intégrées à AgentCore Gateway, chargé de connecter les agents aux outils externes et désormais de vérifier que chaque action opère dans le cadre souhaité.
Gateway se dote d’ailleurs d’une suite de 13 systèmes d’évaluation préconçus pour les agents. Ils vérifient les opérations des agents sur des aspects standards, comme la sécurité et la précision des choix opérés. Des alertes peuvent être émises, mais AWS les présente également comme une manière de se faire la main en attendant la création de règles personnalisées.
On note aussi l’apparition de AgentCore Memory, qui vient ajouter de la mémoire aux agents. La fonction est faite pour autoriser ces derniers à bâtir un contexte autour de chaque utilisateur dans le temps. Les informations prises en compte peuvent être récupérées automatiquement (dates et heures des déplacements, préférences pour les hôtels…) ou imposées.
Kiro et ses compères
AWS en profite bien sûr pour lancer plusieurs nouveaux agents spécifiques, baptisés « agents frontières » : un pour l’écriture de code, un autre pour les processus de sécurité associés et un dernier pour automatiser les tâches de DevOps.
Le premier, Kiro, est le plus mis en avant. Il est censé apprendre avec le temps les préférences du développeur et pouvoir programmer seul ensuite pendant plusieurs jours, affirme AWS. L’entreprise va plus loin en indiquant que Kiro doit produire du code prêt pour la production. Ce développement se fait en revanche en suivant les règles de l’entreprise, qu’il faut donc renseigner. AWS baptise ce concept « développement piloté par les spécifications ». Et si le nom vous est familier, c’est parce que cet agent a été bâti sur les fondations de l’IDE du même nom, qui avait été annoncé en juillet.
Les deux autres agents, Security et DevOps, présentent des fonctions que l’on peut attendre dans ces contextes. Le premier travaille à vérifier la sécurité du code au fur et à mesure qu’il est écrit, s’occupe des tests ensuite et propose des solutions. Le second s’occupe lui aussi de tester le nouveau code, mais avec un accent sur les performances et la compatibilité avec d’autres éléments, logiciels ou matériels. On ne sait pas dans quelle mesure l’ensemble est fiable et permet de gérer les hallucinations, car ces trois nouveaux agents ne sont pour l’instant disponibles qu’en préversions.
Des usines d’IA en partenariat avec NVIDIA
AWS a également annoncé l’arrivée des « AI Factories ». Ces dernières sont une sorte de généralisation de l’offre « souveraine » lancée en Europe en juin, dont la première incarnation prendra place en Allemagne.
Le concept est globalement le même : une grande entreprise ou un gouvernement fournit le centre de données et l’électricité, et AWS fournit le système d’IA, avec possibilité d’établir des liens avec d’autres services AWS ou non. Cette offre a été construite en partenariat avec NVIDIA. Le client peut ainsi choisir entre les GPU Blackwell de cette dernière, les nouvelles puces Trainium3 d’AWS ou un mélange des deux. Dans son exposé, AWS assure que la solution est idéale pour les gros besoins en IA, sans avoir à se lancer dans la conception d’un système complet.
La partie « souveraineté » est censée être assurée par une séparation physique, avec des données ne quittant jamais le centre où ont lieu les opérations. « Les usines d’IA AWS sont conçues pour répondre aux normes de sécurité rigoureuses d’AWS, offrant aux gouvernements la confiance nécessaire pour gérer leurs charges de travail les plus sensibles à tous les niveaux de classification : non classifié, sensible, secret et top secret », affirme même AWS.
Comme on l’a vu toutefois à plusieurs reprises, tout dépend de ce que l’on entend par « souveraineté ». En Europe, le problème se situe surtout dans l’extraterritorialité de certaines lois, dont l’emblématique Cloud Act américain. Les lancements de certaines offres chez Microsoft et AWS ne semblent pas régler cette question. En France, les sociétés Bleu et S3ns semblent répondre à ces critères, car les briques logicielles sont fournies par Microsoft et Google, sans connexion aux clouds existants. Les deuxoffres ont passé le jalon J0 de la certification SecNumCloud de l’ANSSI, mais il faut encore que les démarches aboutissent.
Dans le cadre de sa conférence annuelle re:Invent 2025, AWS a une nouvelle fois annoncé une longue suite d’améliorations liées à l’IA, dont sa famille de modèles Nova 2. De nouveaux agents ont également été présentés, ainsi que le service Forge, qui doit permettre la création de modèles Nova personnalisés.
La grand-messe annuelle d’AWS pour les développeurs bat actuellement son plein à Las Vegas (elle finit le 5 décembre). Comme toujours depuis quelques années, il n’est pratiquement question que d’intelligence artificielle, avec notamment le lancement de la famille Nova 2 pour cette cuvée 2025. On trouve aussi une flopée d’annonces pour les agents, et le lancement de la puce Trainium3 via des offres maison, comme nous l’avons déjà indiqué.
La famille Nova, un lot de modèles maison, revient cette année dans une version 2. Contrairement à l’année dernière où seuls des modèles texte avaient été lancés, AWS couvre cette fois tous les angles.
L’entreprise met particulièrement en avant son Nova 2 Lite, un petit modèle de raisonnement multimodal placé en face de Haiku 4.5 chez Anthropic, GPT 5 Mini chez OpenAI et Gemini 2.5 Flash chez Google (Gemini 3 n’a pour l’instant qu’une version Pro). Ce modèle Lite est présenté comme une alternative solide, pas un vainqueur toutes catégories, même s’il prend la tête dans environ deux tiers des benchmarks présentés.
Si Lite est surtout présenté comme le modèle plus rentable par AWS, d’autres sont présents. On trouve ainsi Nova 2 Pro, orienté vers les tâches complexes, tandis qu’Omni est la version à tout faire, capable de générer tous types de contenus. Ce modèle dispose notamment d’une fenêtre contextuelle d’un million de jetons, prend plus de 200 langues en compte en entrée et une dizaine en sortie. Comme toujours dans ces gammes de modèles, le prix grimpe avec les capacités et le nombre de paramètres.
On se souvient également qu’en avril dernier, AWS avait ajouté Nova Sonic à ses modèles pour viser les échanges vocaux. L’entreprise n’attend pas un an cette fois, Nova Sonic 2 prend déjà la relève. De manière prévisible, la nouvelle mouture présente des voix plus naturelles, de meilleures performances et une meilleure ouverture sur les agents. Comme pour Lite, AWS ne revendique pas la couronne dans tous les tests pour Sonic 2, mais une version plus aboutie du modèle et gérant un plus grand nombre de langues.
« Pour les développeurs, cela signifie que vous pouvez créer des applications qui servent des audiences mondiales sans avoir besoin de modèles vocaux distincts pour chaque langue. Une application de support client pourrait gérer un dialogue qui commence en anglais et passe à l’espagnol en plein milieu d’une conversation, tout en conservant le même flux et les mêmes caractéristiques vocales tout au long de la conversation », indique AWS dans un billet de blog.
En parallèle de ces nouveaux modèles, AWS a présenté Nova Forge, un service permettant aux clients de créer leurs propres modèles Nova. Selon AWS, Forge vient combler un vide, car les approches habituelles pour personnaliser les modèles – ingénierie des prompts, RAG, ajustement fin personnalisé, apprentissage par renforcement… – ont toutes des limites. Forge se propose donc de créer des modèles entrainés sur les données spécifiques de l’entreprise cliente pour obtenir de « vrais modèles personnalisés ». Toutes les étapes seront prises en charge selon AWS, dont le pré-entrainement, l’entrainement intermédiaire et l’affinage supervisé. Forge n’est pour l’instant disponible que dans la région US East (Virginie du Nord), celle-là même qui avait provoqué une vaste panne en octobre.
À noter qu’AWS annonce aussi la disponibilité sur Bedrock de 18 nouveaux modèles open source, dont ceux de la famille Mistral 3, tout juste lancée.
La guerre sur les capacités agentiques continue, avec d’abord un renforcement de la plateforme AgentCore AI, qui sert à les construire chez Amazon. L’un des principaux ajouts est la fonction Policy, qui permet aux utilisateurs de définir des limites pour les interactions avec les agents ou entre eux. Ces barrières sont ensuite intégrées à AgentCore Gateway, chargé de connecter les agents aux outils externes et désormais de vérifier que chaque action opère dans le cadre souhaité.
Gateway se dote d’ailleurs d’une suite de 13 systèmes d’évaluation préconçus pour les agents. Ils vérifient les opérations des agents sur des aspects standards, comme la sécurité et la précision des choix opérés. Des alertes peuvent être émises, mais AWS les présente également comme une manière de se faire la main en attendant la création de règles personnalisées.
On note aussi l’apparition de AgentCore Memory, qui vient ajouter de la mémoire aux agents. La fonction est faite pour autoriser ces derniers à bâtir un contexte autour de chaque utilisateur dans le temps. Les informations prises en compte peuvent être récupérées automatiquement (dates et heures des déplacements, préférences pour les hôtels…) ou imposées.
Kiro et ses compères
AWS en profite bien sûr pour lancer plusieurs nouveaux agents spécifiques, baptisés « agents frontières » : un pour l’écriture de code, un autre pour les processus de sécurité associés et un dernier pour automatiser les tâches de DevOps.
Le premier, Kiro, est le plus mis en avant. Il est censé apprendre avec le temps les préférences du développeur et pouvoir programmer seul ensuite pendant plusieurs jours, affirme AWS. L’entreprise va plus loin en indiquant que Kiro doit produire du code prêt pour la production. Ce développement se fait en revanche en suivant les règles de l’entreprise, qu’il faut donc renseigner. AWS baptise ce concept « développement piloté par les spécifications ». Et si le nom vous est familier, c’est parce que cet agent a été bâti sur les fondations de l’IDE du même nom, qui avait été annoncé en juillet.
Les deux autres agents, Security et DevOps, présentent des fonctions que l’on peut attendre dans ces contextes. Le premier travaille à vérifier la sécurité du code au fur et à mesure qu’il est écrit, s’occupe des tests ensuite et propose des solutions. Le second s’occupe lui aussi de tester le nouveau code, mais avec un accent sur les performances et la compatibilité avec d’autres éléments, logiciels ou matériels. On ne sait pas dans quelle mesure l’ensemble est fiable et permet de gérer les hallucinations, car ces trois nouveaux agents ne sont pour l’instant disponibles qu’en préversions.
Des usines d’IA en partenariat avec NVIDIA
AWS a également annoncé l’arrivée des « AI Factories ». Ces dernières sont une sorte de généralisation de l’offre « souveraine » lancée en Europe en juin, dont la première incarnation prendra place en Allemagne.
Le concept est globalement le même : une grande entreprise ou un gouvernement fournit le centre de données et l’électricité, et AWS fournit le système d’IA, avec possibilité d’établir des liens avec d’autres services AWS ou non. Cette offre a été construite en partenariat avec NVIDIA. Le client peut ainsi choisir entre les GPU Blackwell de cette dernière, les nouvelles puces Trainium3 d’AWS ou un mélange des deux. Dans son exposé, AWS assure que la solution est idéale pour les gros besoins en IA, sans avoir à se lancer dans la conception d’un système complet.
La partie « souveraineté » est censée être assurée par une séparation physique, avec des données ne quittant jamais le centre où ont lieu les opérations. « Les usines d’IA AWS sont conçues pour répondre aux normes de sécurité rigoureuses d’AWS, offrant aux gouvernements la confiance nécessaire pour gérer leurs charges de travail les plus sensibles à tous les niveaux de classification : non classifié, sensible, secret et top secret », affirme même AWS.
Comme on l’a vu toutefois à plusieurs reprises, tout dépend de ce que l’on entend par « souveraineté ». En Europe, le problème se situe surtout dans l’extraterritorialité de certaines lois, dont l’emblématique Cloud Act américain. Les lancements de certaines offres chez Microsoft et AWS ne semblent pas régler cette question. En France, les sociétés Bleu et S3ns semblent répondre à ces critères, car les briques logicielles sont fournies par Microsoft et Google, sans connexion aux clouds existants. Les deuxoffres ont passé le jalon J0 de la certification SecNumCloud de l’ANSSI, mais il faut encore que les démarches aboutissent.
Opera fait partie des éditeurs ayant décidé d’investir massivement dans l’IA pour son navigateur. L’entreprise norvégienne est si sûre de son choix qu’elle a même lancé un navigateur dédié et payant, Neon, décrit comme un navigateur agentique.
Bien qu’Opera ait ses propres capacités dans le domaine, l’éditeur a décidé d’élargir ses horizons via un partenariat avec Google. En clair, Gemini débarque dans Opera One et Opera GX, respectivement son navigateur classique et celui dédié aux joueurs.
Les capacités décrites sont les mêmes qu’habituellement : requêtes diverses sur un ou plusieurs onglets, résumés d’informations, comparaisons de contenus sur plusieurs onglets (textes, images et vidéos), analyses diverses et ainsi de suite. Opera ajoute que son expérience avec Neon lui a permis d’optimiser son architecture, afin que les navigateurs répondent 20 % plus vite aux requêtes, mais on n’en sait guère plus.
« L’IA remodèle la façon dont les gens interagissent avec le web, et le navigateur est le point d’entrée naturel de ces expériences. Grâce à notre partenariat avec Google, nous pouvons offrir aux utilisateurs les expériences qu’ils désirent vraiment grâce à la recherche native et aux fonctionnalités d’IA, gratuitement, directement dans leurs navigateurs Opera One et Opera GX, tandis que nos utilisateurs les plus avancés du navigateur agentique Opera Neon ont déjà accès à Gemini 3 Pro », a déclaré Per Wetterdal, responsable de la publicité chez Opera.
Google semble également extatique : « En intégrant les derniers modèles Gemini, Opera ne se contente pas d’améliorer ses navigateurs, mais établit une nouvelle norme pour les expériences utilisateur alimentées par l’IA. Nous sommes fiers de fournir des capacités d’IA de pointe qui aident des partenaires comme Opera à prospérer et à continuer de façonner l’avenir de la navigation pour des millions d’utilisateurs dans le monde », a déclaré Per Gustafsson, directeur de Google Cloud Nordics.
Opera fait partie des éditeurs ayant décidé d’investir massivement dans l’IA pour son navigateur. L’entreprise norvégienne est si sûre de son choix qu’elle a même lancé un navigateur dédié et payant, Neon, décrit comme un navigateur agentique.
Bien qu’Opera ait ses propres capacités dans le domaine, l’éditeur a décidé d’élargir ses horizons via un partenariat avec Google. En clair, Gemini débarque dans Opera One et Opera GX, respectivement son navigateur classique et celui dédié aux joueurs.
Les capacités décrites sont les mêmes qu’habituellement : requêtes diverses sur un ou plusieurs onglets, résumés d’informations, comparaisons de contenus sur plusieurs onglets (textes, images et vidéos), analyses diverses et ainsi de suite. Opera ajoute que son expérience avec Neon lui a permis d’optimiser son architecture, afin que les navigateurs répondent 20 % plus vite aux requêtes, mais on n’en sait guère plus.
« L’IA remodèle la façon dont les gens interagissent avec le web, et le navigateur est le point d’entrée naturel de ces expériences. Grâce à notre partenariat avec Google, nous pouvons offrir aux utilisateurs les expériences qu’ils désirent vraiment grâce à la recherche native et aux fonctionnalités d’IA, gratuitement, directement dans leurs navigateurs Opera One et Opera GX, tandis que nos utilisateurs les plus avancés du navigateur agentique Opera Neon ont déjà accès à Gemini 3 Pro », a déclaré Per Wetterdal, responsable de la publicité chez Opera.
Google semble également extatique : « En intégrant les derniers modèles Gemini, Opera ne se contente pas d’améliorer ses navigateurs, mais établit une nouvelle norme pour les expériences utilisateur alimentées par l’IA. Nous sommes fiers de fournir des capacités d’IA de pointe qui aident des partenaires comme Opera à prospérer et à continuer de façonner l’avenir de la navigation pour des millions d’utilisateurs dans le monde », a déclaré Per Gustafsson, directeur de Google Cloud Nordics.
Après le lancement de nouvelles versions majeures chez pratiquement tous les acteurs de l’IA générative, Mistral dégaine sa famille de modèles ouverts Mistral 3. Bien que celle-ci comprenne un modèle multimodal, ce sont surtout les plus petits qui sont mis en avant.
L’entreprise française n’en démord pas : lancer des modèles géants n’est pas nécessairement ce qu’il y a de mieux pour les entreprises. Elle reste centrée sur sa stratégie de publication de modèles à poids ouvert, dans l’idée que le monde professionnel va s’en emparer, les personnaliser, les distiller ou les entrainer sur ses propres données.
Mistral veut régner sur les modèles ouverts
Dans l’annonce, on remarque tout de suite que les comparaisons se font uniquement avec d’autres modèles ouverts, comme DeepSeek (en version 3.1 ou 3.2 selon les cas, étrangement) ou Kimi-K2. Sans trop de surprises dans le cadre de ce type d’annonce, les modèles Mistral 3 arrivent premiers dans la plupart des benchmarks, toujours à prendre avec des pincettes.
L’entreprise donne quelques informations supplémentaires sur son grand modèle Large 3. Par exemple, qu’il a été entrainé depuis zéro sur une infrastructure comprenant 3 000 GPU H200 de NVIDIA. Il s’agit également du premier modèle de type MoE (mixture-of-experts) de Mistral depuis sa série Mixtral en 2023. Dans une version proposée au format NVFP4 (construite avec llm-compressor), Mistral affirme que son modèle peut fonctionner « efficacement » sur un nœud comportant huit puces A100 ou H100.
Cette approche permet pour rappel de dispatcher les requêtes vers des réseaux plus spécialisés du type de calcul lors de l’évaluation. Le principal avantage est une réduction de la consommation, le modèle n’activant qu’une partie des neurones pour traiter la demande (41 milliards de paramètres actifs sur 675 milliards au total). C’est le modèle présenté comme idéal pour les opérations lourdes, comme le développement et la création de contenus.
Mistral revendique la deuxième place sur LMArena pour son Large 3 dans la catégorie des modèles ouverts sans capacités de raisonnement, mais nous ne retrouvons pas les mêmes chiffres. Sur les modèles disposant d’une licence Apache 2.0, c’est bien le cas, mais la société ne semble pas tenir compte de la licence MIT, pourtant open source elle aussi. Dans le tableau général, Large 3 se classe 28e, tous modèles confondus.
Mistral ajoute en outre que le développement de la nouvelle famille s’est fait en partenariat avec NVIDIA, aboutissant notamment à une « inférence efficace » pour TensorRT-LLM et SGLang.
La « petite » famille
Bien que Mistral aborde ses nouveautés du jour avec le modèle Large, ce sont surtout les petits modèles que la société met en avant. La série Ministral 3 comprend ainsi des variantes à 3, 8 et 14 milliards de paramètres, conçues pour l’informatique en périphérie (edge) et le fonctionnement local, toujours sous licence Apache 2.0. Tous ces modèles ont également des variantes de raisonnement, la version 14B atteignant par exemple 85 % sur le test AIME 25. Cette version, la plus volumineuse des trois, peut fonctionner sur une machine embarquant 24 Go de mémoire et un seul GPU.
Mistral semble particulièrement fière de ses petits modèles, assurant qu’ils offrent « le meilleur rapport coût/performance de tous les modèles open source » actuellement. Les versions classiques (sans raisonnement) sont au niveau ou dépassent les modèles concurrents, selon l’entreprise, tout en consommant « souvent » moins de jetons.
En tout, cette famille comprend trois modèles, les trois tailles étant disponibles dans des variantes Base (modèles de fondation pré-entrainés), Instruct (conçus surtout pour les chatbots) et Reasoning. Tous prennent en charge la vision, sont multilingues et fonctionnent avec des fenêtres allant de 128 000 à 256 000 jetons.
Guillaume Lample, fondateur de Mistral, a mis en avant la vision de l’entreprise auprès de plusieurs médias, dont TechCrunch et le Financial Times : « Nos clients sont parfois contents de débuter avec un très grand modèle de langage qu’ils n’ont pas besoin de peaufiner. Mais quand ils le déploient, ils réalisent que c’est cher et lent. Ils viennent alors nous voir pour affiner de petits modèles, afin de gérer leurs cas d’usage. Dans la pratique, la grande majorité des cas d’usage d’entreprises sont des choses que les petits modèles peuvent résoudre, surtout si vous les affinez ».
Comme le rappellent d’ailleurs nos confrères, cette orientation marquée vers les petits modèles capables de fonctionner localement rapproche l’entreprise de « l’IA physique ». Elle travaille par exemple avec Stellantis sur un assistant IA embarqué, avec la société allemande de défense Helsing sur des modèles vision-langage-action pour des drones, ou encore très récemment avec la Home Team Science and Technology Agency (HTX) de Singapour sur des modèles spécialisés pour robots.
Après le lancement de nouvelles versions majeures chez pratiquement tous les acteurs de l’IA générative, Mistral dégaine sa famille de modèles ouverts Mistral 3. Bien que celle-ci comprenne un modèle multimodal, ce sont surtout les plus petits qui sont mis en avant.
L’entreprise française n’en démord pas : lancer des modèles géants n’est pas nécessairement ce qu’il y a de mieux pour les entreprises. Elle reste centrée sur sa stratégie de publication de modèles à poids ouvert, dans l’idée que le monde professionnel va s’en emparer, les personnaliser, les distiller ou les entrainer sur ses propres données.
Mistral veut régner sur les modèles ouverts
Dans l’annonce, on remarque tout de suite que les comparaisons se font uniquement avec d’autres modèles ouverts, comme DeepSeek (en version 3.1 ou 3.2 selon les cas, étrangement) ou Kimi-K2. Sans trop de surprises dans le cadre de ce type d’annonce, les modèles Mistral 3 arrivent premiers dans la plupart des benchmarks, toujours à prendre avec des pincettes.
L’entreprise donne quelques informations supplémentaires sur son grand modèle Large 3. Par exemple, qu’il a été entrainé depuis zéro sur une infrastructure comprenant 3 000 GPU H200 de NVIDIA. Il s’agit également du premier modèle de type MoE (mixture-of-experts) de Mistral depuis sa série Mixtral en 2023. Dans une version proposée au format NVFP4 (construite avec llm-compressor), Mistral affirme que son modèle peut fonctionner « efficacement » sur un nœud comportant huit puces A100 ou H100.
Cette approche permet pour rappel de dispatcher les requêtes vers des réseaux plus spécialisés du type de calcul lors de l’évaluation. Le principal avantage est une réduction de la consommation, le modèle n’activant qu’une partie des neurones pour traiter la demande (41 milliards de paramètres actifs sur 675 milliards au total). C’est le modèle présenté comme idéal pour les opérations lourdes, comme le développement et la création de contenus.
Mistral revendique la deuxième place sur LMArena pour son Large 3 dans la catégorie des modèles ouverts sans capacités de raisonnement, mais nous ne retrouvons pas les mêmes chiffres. Sur les modèles disposant d’une licence Apache 2.0, c’est bien le cas, mais la société ne semble pas tenir compte de la licence MIT, pourtant open source elle aussi. Dans le tableau général, Large 3 se classe 28e, tous modèles confondus.
Mistral ajoute en outre que le développement de la nouvelle famille s’est fait en partenariat avec NVIDIA, aboutissant notamment à une « inférence efficace » pour TensorRT-LLM et SGLang.
La « petite » famille
Bien que Mistral aborde ses nouveautés du jour avec le modèle Large, ce sont surtout les petits modèles que la société met en avant. La série Ministral 3 comprend ainsi des variantes à 3, 8 et 14 milliards de paramètres, conçues pour l’informatique en périphérie (edge) et le fonctionnement local, toujours sous licence Apache 2.0. Tous ces modèles ont également des variantes de raisonnement, la version 14B atteignant par exemple 85 % sur le test AIME 25. Cette version, la plus volumineuse des trois, peut fonctionner sur une machine embarquant 24 Go de mémoire et un seul GPU.
Mistral semble particulièrement fière de ses petits modèles, assurant qu’ils offrent « le meilleur rapport coût/performance de tous les modèles open source » actuellement. Les versions classiques (sans raisonnement) sont au niveau ou dépassent les modèles concurrents, selon l’entreprise, tout en consommant « souvent » moins de jetons.
En tout, cette famille comprend trois modèles, les trois tailles étant disponibles dans des variantes Base (modèles de fondation pré-entrainés), Instruct (conçus surtout pour les chatbots) et Reasoning. Tous prennent en charge la vision, sont multilingues et fonctionnent avec des fenêtres allant de 128 000 à 256 000 jetons.
Guillaume Lample, fondateur de Mistral, a mis en avant la vision de l’entreprise auprès de plusieurs médias, dont TechCrunch et le Financial Times : « Nos clients sont parfois contents de débuter avec un très grand modèle de langage qu’ils n’ont pas besoin de peaufiner. Mais quand ils le déploient, ils réalisent que c’est cher et lent. Ils viennent alors nous voir pour affiner de petits modèles, afin de gérer leurs cas d’usage. Dans la pratique, la grande majorité des cas d’usage d’entreprises sont des choses que les petits modèles peuvent résoudre, surtout si vous les affinez ».
Comme le rappellent d’ailleurs nos confrères, cette orientation marquée vers les petits modèles capables de fonctionner localement rapproche l’entreprise de « l’IA physique ». Elle travaille par exemple avec Stellantis sur un assistant IA embarqué, avec la société allemande de défense Helsing sur des modèles vision-langage-action pour des drones, ou encore très récemment avec la Home Team Science and Technology Agency (HTX) de Singapour sur des modèles spécialisés pour robots.
Avec la version 9.1, la suite bureautique avait introduit un agent en version bêta. L’éditeur se sent suffisamment prêt désormais pour le lancer dans le grand bain.
Comme toujours avec ce type de fonction, elle est conçue pour gérer des requêtes comme le résumé de tout ou partie d’un document, des questions sur le contenu, le remplissage de PDF ou encore des modifications dans la présentation.
OnlyOffice ne dispose pas de son propre modèle. Pour utiliser l’agent maison, il faut disposer d’une clé API pour un LLM existant, comme ChatGPT, Claude ou Gemini. On peut aussi le connecter à un serveur LLM ou MCP local fonctionnant avec des solutions de type Ollama. Comme le rappelle OMGUbuntu cependant, le travail avec les LLM implique souvent des conditions d’utilisation incluant la réutilisation des contenus analysés à des fins d’entrainement.
Parmi les autres nouveautés de cette version, signalons la possibilité de choisir une couleur personnalisée pour caviarder des passages dans un document PDF, l’enregistrement d’une série d’actions sous forme de macro pour la réutiliser plus tard, la personnalisation des raccourcis clavier, la possibilité d’insérer des équations depuis des sources en ligne, la disponibilité de cases à cocher et de boutons radio dans l’éditeur de formulaires, ainsi qu’un correctif de sécurité.
Avec la version 9.1, la suite bureautique avait introduit un agent en version bêta. L’éditeur se sent suffisamment prêt désormais pour le lancer dans le grand bain.
Comme toujours avec ce type de fonction, elle est conçue pour gérer des requêtes comme le résumé de tout ou partie d’un document, des questions sur le contenu, le remplissage de PDF ou encore des modifications dans la présentation.
OnlyOffice ne dispose pas de son propre modèle. Pour utiliser l’agent maison, il faut disposer d’une clé API pour un LLM existant, comme ChatGPT, Claude ou Gemini. On peut aussi le connecter à un serveur LLM ou MCP local fonctionnant avec des solutions de type Ollama. Comme le rappelle OMGUbuntu cependant, le travail avec les LLM implique souvent des conditions d’utilisation incluant la réutilisation des contenus analysés à des fins d’entrainement.
Parmi les autres nouveautés de cette version, signalons la possibilité de choisir une couleur personnalisée pour caviarder des passages dans un document PDF, l’enregistrement d’une série d’actions sous forme de macro pour la réutiliser plus tard, la personnalisation des raccourcis clavier, la possibilité d’insérer des équations depuis des sources en ligne, la disponibilité de cases à cocher et de boutons radio dans l’éditeur de formulaires, ainsi qu’un correctif de sécurité.