Le 5 décembre, Microsoft a déployé sans grand bruit une mise à jour pour l’ensemble des PC bâtis sur une puce Snapdragon X de Qualcomm, pour rappel au cœur de l’offre des ordinateurs Copilot+ de Microsoft.
Elle a apporté une nouvelle version à l’émulateur Prism, chargé de faire fonctionner les applications x86 sur des machines Arm en convertissant le code en arm64. Si ce composant fait globalement le travail, on retrouve bien sûr les limitations habituelles de ce type de technologie, dont des performances nettement plus faibles que pour des applications natives.
Certaines applications et jeux ne pouvaient en outre pas être installés. Ils réclament en effet des jeux d’instructions spécifiques, dont font partie AVX (Advanced Vector Extensions) et AVX2. Quand ils sont exploités, ils permettent une hausse significative des performances dans certains domaines, comme le traitement d’images, le rendu 3D, le codage vidéo ou encore les calculs scientifiques. Si AVX se concentrait sur les nombres en virgule flottante, les instructions AVX2 ont ajouté le support des entiers, élargissant d’autant plus le périmètre d’utilité.
Les instructions AVX sont arrivées en 2008 et ont donc eu largement le temps d’être supportées dans de nombreuses applications. Les jeux en font aujourd’hui un usage intensif. À tel point que beaucoup de ces programmes ne peuvent pas fonctionner sans.
C’est ce qu’a apporté la mise à jour de Prism, en plus d’extensions associées comme BMI, BFA et F16C. Microsoft cite le cas du séquenceur musical Ableton Live 12, qui affichait une erreur au lancement avec l’ancienne version de Prism. L’éditeur précise toutefois que l’application arrivera sous forme native dans le courant de l’année prochaine.
Microsoft précise que la nouvelle version a été déployée sur toutes les machines concernées, dès lors qu’elles ont au moins la version 24H2 de Windows 11, ce qui est en théorie le cas de tous les Copilot+. La nouvelle émulation est active par défaut pour les applications x86-64. Elle est coupée par défaut pour les applications 32 bits, mais peut être activée dans les paramètres de compatibilité.
Le plus gros changement, qui avait été « teasé » par l’équipe au début du printemps, est un menu principal repensé. Il permet la configuration des emplacements et favoris, la bascule entre des icônes symboliques ou complètes (colorées) et embarque de nombreux changements visuels. Par exemple, le panneau latéral est plus large, les dossiers les plus courants y sont épinglés, les boutons d’alimentation (arrêt, déconnexion, verrouillage) sont placés en bas à gauche, etc.
Cinnamon 6.6 présente d’autres nouveautés. Par exemple, une simplification de la gestion des claviers physiques et virtuels avec un bouton pour changer rapidement de disposition, une meilleure visibilité des suggestions ou encore un effet de fondu quand le clavier virtuel apparait ou disparait.
Signalons aussi du neuf dans les Paramètres, avec notamment le nouveau panneau pour les informations système, l’arrivée du Thunderbolt ou encore la possibilité de définir manuellement les plages horaires pour les thèmes clairs et sombres. L’applet NetworkManager peut afficher plusieurs connexions VPN actives, Workspace Switcher peut ajouter des icônes aux fenêtres, Imprimante n’apparait que lors d’une impression, une jauge apparait quand on change le volume sonore, Alt+Tab n’affiche que les fenêtres présentes sur l’écran utilisé, les animations sont plus fluides, etc.
Cinnamon 6.6 sera l’environnement par défaut de la future version 22.3 de Linux Mint, nommée Zena. Elle doit arriver à la fin du mois ou début janvier. Pour les autres systèmes avec Cinnamon, la mise à jour de l’environnement dépendra de la philosophie de la distribution utilisée. Beaucoup ne changent pas de version majeure ou même intermédiaire avant la révision suivante. À noter que la version 6.6 est prête aussi bien pour l’édition standard de Linux Mint que pour LMDE, l’édition basée sur Debian.
Mistral part plus frontalement à l’assaut de Claude Code et autre ChatGPT Codex. La startup française a lancé ce 9 décembre deux modèles dédiés au développement, dont une version légère fonctionnant sur du matériel grand public.
Mistral a lancé en juin dernier son outil Code, dédié au vibe coding. La semaine dernière, elle présentait ses modèles Mistral 3, déclinés en de nombreuses variantes.
La licorne veut doubler la mise avec sa nouvelle génération Devstral 2 dédiée aux développeurs, plus particulièrement au fonctionnement autonome agentique. Elle lance également un outil en ligne de commande, Vibe CLI, pour faciliter l’automatisation du code par le langage naturel.
Mistral joue la rentabilité
La nouvelle famille Devstral 2 se compose de deux modèles, un grand et un petit, ouverts et sous licence libre (une version modifiée de la licence MIT pour le grand, Apache 2.0 pour le petit). Le grand, avec ses 123 milliards de paramètres, est mis en avant. Mistral annonce un score de 72,2 % sur le test SWE-bench Verified, ce qui le classe parmi les meilleurs modèles, devant Claude 4.5 Sonnet (70,60 %) et derrière Claude 4.5 Opus (74,40 %) et Gemini 3 Pro (74,20 %). Sur le site du test, les scores des modèles Devstral 2 ne sont pas encore présents.
Mistral braque surtout les projecteurs sur la rentabilité de son modèle. Elle le présente comme « jusqu’à 7 fois plus rentable que Claude Sonnet pour des tâches réelles ». En outre, le modèle est actuellement gratuit via l’API Mistral. Après cette période de grâce, la tarification sera de 0,40 dollar par million de jetons en entrée et de 2 dollars en sortie. C’est d’ailleurs de là que vient la comparaison avec Sonnet, puisque la tarification de ce dernier est respectivement de 3 et 15 dollars.
Devstral 2 peut fonctionner localement, mais Mistral recommande quand même la présence d’au moins quatre puces H100 pour son déploiement. Sa fenêtre de contexte est de 256 000 jetons. « Devstral 2 permet d’explorer les bases de code et d’orchestrer les modifications sur plusieurs fichiers tout en maintenant un contexte au niveau de l’architecture. Il suit les dépendances du framework, détecte les défaillances et réessaie avec des corrections – résolvant des défis comme la correction de bugs et la modernisation des systèmes hérités. Le modèle peut être affiné pour prioriser des langages spécifiques ou optimiser pour de grandes bases de code d’entreprise », indique Mistral dans son communiqué.
Crédits : Mistral
Petit pimousse
Cependant, c’est bien Devstral 2 Small qui a attiré le plus l’attention. Il dispose de 24 milliards de paramètres et affiche, selon Mistral, un score de 68 % sur SWE-bench Verified. Lui aussi est pour l’instant disponible gratuitement via l’API. Après quoi, la tarification sera de 0,10 dollar par million de jetons en entrée et 0,30 dollar en sortie. Là aussi, la fenêtre de contexte est de 256 000 jetons. La communication de Mistral sur ce petit modèle est claire : il n’égale pas les gros modèles, mais il est 28 fois plus petit que DeepSeek 3.2.
Devstral 2 Small a attiré rapidement les commentaires, et pour cause : son installation locale peut se faire sur du matériel accessible au grand public. Une recherche « devstral » sur X montre rapidement un grand nombre de publications louant les résultats obtenus pour un modèle local. Dogac, par exemple, a testé les modèles dans un benchmark personnalisé et retrouve globalement les résultats donnés par Mistral. D’autres, comme N8Programs et Thadée Tyl, louent ses performances. Ce dernier affirme que Devstral 2 devient le meilleur modèle pour le développement sous la barre des 150 milliards de paramètres, et que Devstral 2 Small fait presque jeu égal avec Magistral 1.2 sans posséder de capacités de raisonnement.
Dans l’ensemble, les résultats obtenus par les deux modèles vont dans le sens de ce que nous déclarait récemment Horacio Gonzalez (Clever Cloud). Pour le responsable, on pouvait être optimiste sur les modèles locaux et open source, car leur progression est tout aussi rapide – même avec un décalage – que les modèles fermés en ligne. Une progression suffisante pour ne pas avoir à craindre une trop grande dépendance limitée à quelques gros acteurs du domaine.
Mistral a profité de son annonce pour lancer un nouvel outil, nommé Vibe CLI, également sous licence Apache. Il s’utilise en ligne de commande, similaire à des produits concurrents comme Claude Code et OpenAI Codex. Vibe CLI sert à interagir avec les modèles Mistral dans un terminal, avec des capacités d’analyse de structure de fichiers, de modifications sur plusieurs fichiers, de commandes shell, de recherche de code ou encore de contrôle de version.
Mistral insiste en particulier sur la prise en charge d’un « contexte conscient » du projet. La structure des fichiers et le statut Git sont ainsi analysés automatiquement. L’entreprise assure que le raisonnement se fait sur l’ensemble des fichiers et pas uniquement celui en cours d’édition. L’historique est décrit comme persistant, avec autocomplétion et thèmes personnalisables.
Crédits : @cedric_chee
« Vous pouvez exécuter Vibe CLI de manière programmatique pour le scripting, désactiver l’auto-approbation pour l’exécution de l’outil, configurer des modèles locaux et des fournisseurs via un simple config.toml, et contrôler les permissions des outils pour correspondre à votre flux de travail », indique Mistral, confirmant que son outil fonctionne avec des installations locales de ses modèles.
L’Assemblée nationale a validé le 9 décembre le projet de loi de financement de la Sécurité sociale (PLFSS) pour 2026. Parmi les nombreuses mesures qu’il contient, une très forte incitation à l’utilisation du dossier médical partagé (Mon Espace Santé) par les professionnels, sous peine d’amende.
Tard dans la soirée du 9 décembre, les députés ont validé le PLFSS 2026. Il s’en est fallu de peu. Le Premier ministre, Sébastien Lecornu, a salué une « majorité de compromis et de responsabilité ». La version votée est très différente de la copie initiale du 14 octobre, comme l’a résumé Caducée.net.
La partie du texte consacrée à Mon Espace Santé n’a cependant que peu changé. Le texte met l’accent sur une intensification de l’usage, mais pas par les usagers. Devant des chiffres en croissance constante, ce sont cette fois les professionnels qui sont pointés du doigt.
Un dossier médical partagé, pour quoi faire ?
L’idée centrale derrière un dossier médical en ligne est son partage entre les différents professionnels de santé, dans l’objectif de réduire drastiquement « l’errance médicale » (ou nomadisme médical). Cette dernière se manifeste quand le manque de communication entre médecins et autres praticiens entraîne la multiplication d’examens déjà réalisés, avec à la clé une hausse importante de la facture pour l’Assurance maladie (et les mutuelles).
Il reste 82% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
La fondation Linux a cessé depuis longtemps d’être centrée sur Linux. Elle est aujourd’hui un vaste parapluie regroupant un nombre croissant de fondations « filles ». La Linux Foundation gère aujourd’hui plus de 900 projets, dont des briques très utilisées comme PyTorch, le noyau Linux, Xen ou encore l’architecture RISC-V.
Une nouvelle fondation fille a rejoint le clan : l’Agentic AI Foundation (AAIF). Objectif : façonner la manière dont les agents interagissent en s’assurant que tout le monde respecte un ensemble commun de règles.
La fondation accueille des « contributions fondatrices de projets techniques de premier plan », dont bien sûr le protocole MCP, créé par Anthropic et qui s’est rapidement imposé comme un standard. Il permet pour rappel aux agents d’exposer leurs capacités afin qu’ils puissent se reconnaitre et communiquer entre eux. Sont également présents le framework Goose de Block (Square, Cash App, Afterpay, TIDAL…) et la norme de facto AGENTS.md créée par OpenAI (l’équivalent d’un README pour les agents).
Yasmine Boudiaf & LOTI / Better Images of AI / CC-BY 4.0
Sans trop de surprise, les membres Platinum (ceux apportant la plus grosse contribution financière) sont surtout les ténors du domaine : Amazon Web Services, Anthropic, Google, Microsoft et OpenAI. Mais on note aussi la présence de Bloomberg et de Cloudflare. Ce dernier y voit peut-être une manière de « réguler » ce domaine de l’intérieur, après avoir pesté plusieurs fois contre le comportement de certains acteurs, en particulier Perplexity. Parmi les membres Gold, on trouve nombre d’acteurs majeurs de la tech comme IBM, Oracle, Ericsson, Cisco, JetBrains ou encore SAP.
« L’avènement de l’IA agentique représente une nouvelle ère de prise de décision autonome et de coordination entre les systèmes d’IA qui transformera et révolutionnera des industries entières. L’AAIF offre une base neutre et ouverte pour garantir que cette capacité critique évolue de manière transparente, collaborative et de manière à favoriser l’adoption des principaux projets d’IA open source. Ses projets inauguraux, AGENTS.md, Goose et MCP, posent les bases d’un écosystème partagé d’outils, de standards et d’innovations communautaires », déclare la fondation dans son communiqué.
L’AAIF ajoute que dans le cadre de cette annonce, Obot.ai (membre Silver) a transmis à la fondation le patronage de ses évènements MCP Dev Summit et son podcast. Le prochain sommet aura lieu les 2 et 3 avril 2026 à New York. La fondation en profite pour ouvrir l’appel à interventions, l’inscription et les parrainages pour l’évènement.
Google diffuse depuis hier soir aux testeurs intéressés une nouvelle version Canary d’Android. Cette mouture, estampillée 2512 et potentiellement (très) instable, intègre plusieurs améliorations d’interface et nouvelles fonctions. Par exemple, des modifications liées à la cohérence graphique de l’interface, quelques nouvelles icônes, des animations plus rapides, etc.
La mise à jour inclut cependant une nouveauté faisant le tour des médias : une nouvelle fonction permettant de passer plus facilement d’un iPhone vers Android, dès l’assistant de configuration initial. Et il ne s’agit pas d’un « hack » comme la récente compatibilité avec AirDrop diffusée par Google, mais du résultat d’un travail commun des deux entreprises.
On manque encore de détails sur la fonction, mais elle comprend a priori les données et réglages d’applications, les réglages des notifications ainsi que les paramètres clés dans les réglages du système. Cette passation d’informations se fait au niveau du système et n’a pas besoin d’une application dédiée.
Cette fonction n’est disponible pour l’instant que pour les smartphones Pixel de Google et devrait être diffusée en version stable au cours d’une prochaine mise à jour trimestrielle. 9to5Google, à l’origine de l’information, indique cependant que l’accord se fait dans les deux sens : Apple va également proposer un processus équivalent dans iOS, pour reprendre les mêmes informations depuis un Pixel. La fonction serait ajoutée lors d’une prochaine bêta du cycle d’iOS 26, dans la version 26.3 ou 26.4 probablement.
L’ajout signale une détente progressive chez Apple, contrainte et forcée de s’ouvrir, que ce soit par la régulation (notamment en Europe) ou par pression populaire. Après avoir remporté la bataille sur le support du RCS dans iOS, Google a habilement lancé son support d’AirDrop, Apple se retrouvant « coincée » par une annonce en grande pompe, sous l’œil des régulateurs, dont une Commission européenne assumant le bras de fer.
La nouvelle mouture de Firefox apporte plusieurs évolutions notables. L’une des plus importantes est l’arrivée de la mise à l’échelle fractionnée pour Wayland. Dans les grandes lignes, c’est l’ensemble de l’affichage qui devrait être plus efficace et réactif sur les sessions Wayland. Un changement important, qui réjouit particulièrement Michael Larabel, de Phoronix.
Firefox 146 présente d’autres améliorations sous le capot. La version Mac contient ainsi désormais un processus GPU dédié, qui servira pour WebGPU, WebGL ainsi que le propre moteur WebRender du navigateur. Mozilla indique dans les notes de version que cet ajout permettra de redémarrer silencieusement le processus GPU en cas d’erreur fatale, plutôt que d’entrainer un plantage du navigateur. Sous Windows, le support de l’ancienne API Direct2D est supprimé (il reste disponible dans la version ESR).
Mozilla a également ajouté un système de sauvegarde sous Windows, à destination en particulier des personnes sous Windows 10. En plus du service de synchronisation habituel, Firefox peut maintenant lancer une sauvegarde une fois par jour. Le fichier comprend notamment les favoris et mots de passe, avec possibilité d’y glisser d’autres catégories de données. Il peut aussi être protégé par un mot de passe et est alors chiffré. Ce fichier peut ensuite servir pour une installation neuve du navigateur, y compris sur un autre appareil.
Parmi les autres nouveautés, signalons la disponibilité des Firefox Labs pour l’ensemble des utilisateurs, l’arrivée dans l’Union européenne d’un widget météo pour la page Nouvel onglet, une nouvelle version de la bibliothèque graphique Skia pour améliorer les performances et la compatibilité, ou encore le masquage automatique des propriétés CSS inutilisées dans l’Inspecteur pour réduire l’encombrement.
Infomaniak vient de lancer son IA maison. L’entreprise suisse insiste particulièrement sur la dimension souveraine, sécurisée et autonome de son infrastructure, ainsi que sur la récupération de la chaleur générée pour chauffer des logements à Genève.
Infomaniak se présente comme un nouvel acteur dans la cour rapidement grandissante des fournisseurs de solutions IA. Le produit se nomme Euria, un chabot qui entre en concurrence directe avec ChatGPT, Claude et autre Mistral. Le nom est d’ailleurs l’acronyme de « Éthique, Universelle, Responsable, Indépendante et Autonome ». Après un lancement discret en juin dans kDrive, le chatbot prend ses aises.
Un modèle freemium et une tarification agressive
Le nouveau service est disponible via une page web, ou par l’application mobile sur Android et iOS. Comme souvent avec les chatbots, on trouve une version gratuite pour répondre aux questions, bloquée une fois un palier atteint (ce point n’est pas clairement précisé). Après quoi, il faudra l’une des formules payantes de la kSuite (à partir de 19 euros par an).
On note d’ailleurs qu’Infomaniak n’a pas créé de formule payante spécifique pour son nouveau service. On peut en outre utiliser Euria sans créer de compte, mais le chatbot en réclamera rapidement un après quelques requêtes (trois dans notre cas). On note dans l’ensemble des réponses assez rapides.
Euria est multimodal. Les demandes peuvent être faites textuellement ou par la voix, on peut lui envoyer des documents et autres fichiers, lui demander des transcriptions audio, d’interpréter des tableaux et autres graphiques, de lancer des recherches sur le web ou encore des raisonnements plus complexes. Infomaniak explique que le raisonnement et la recherche web sont utilisés automatiquement en fonction du contexte, mais on peut forcer la recherche en la demandant explicitement au chatbot. Des évolutions sont déjà prévues, dont la génération d’images, des agents et de la mémoire pour le contexte.
Infomaniak promet le respect des données
Côté sécurité et confidentialité, Infomaniak assure que des chiffrements sont appliqués « à toutes les étapes ». Il faut comprendre pendant le transport et au repos, mais Infomaniak peut accéder aux données sur ses serveurs. Point important, l’entreprise ajoute que les données traitées ne sont jamais utilisées « pour entraîner des modèles d’intelligence artificielle, établir des profils ou alimenter des systèmes tiers ».
Un mode éphémère est proposé pour aller plus loin, l’entreprise assurant alors qu’aucune trace n’est laissée et que rien ne peut être récupéré, y compris par Infomaniak. Tous les traitements ont lieu dans le datacenter D4 situé en Suisse, inauguré en début d’année.
Des modèles open source
Infomaniak n’a cependant pas développé de modèle maison. À la place, l’entreprise se sert de plusieurs modèles open source. Si l’annonce n’en parle pas, l’entreprise nous a répondu, par la voix de Thomas Jacobsen, son responsable communication et marketing : elle se sert de Mistral (Small 3.2) pour les images, Qwen3 (Alibaba) pour la partie texte, et de Whisper d’OpenAI pour l’audio.
« Notre stack évolue en permanence afin d’intégrer les meilleurs modèles open source disponibles au moment où ils deviennent pertinents. Nous contribuons et suivons de près l’évolution d’Apertus, et nous étudions déjà la possibilité d’adopter le prochain modèle de Mistral. Dans nos choix technologiques, l’impact écologique joue également un rôle essentiel : nous cherchons systématiquement le meilleur compromis entre performance et consommation de ressources »
Infomaniak en profite pour lancer un cri d’alarme à ce sujet : « À ce jour, aucun des modèles les plus performants n’est européen. Ce constat doit nous interpeller : l’Europe doit investir pour rattraper son retard et bâtir ses propres modèles d’IA souverains, éthiques et neutres en carbone. Plus les utilisateurs choisiront des acteurs locaux, plus nous aurons les moyens de construire cette indépendance technologique », a déclaré Marc Oehler, CEO d’Infomaniak.
Enfin, Infomaniak met en avant l’aspect écologique de son datacenter, utilisé par Euria, dont la chaleur est récupérée et réinjectée dans le réseau de chauffage urbain. L’objectif est d’atteindre la pleine puissance en 2028 et alors de chauffer jusqu’à 6 000 logements à Genève en hiver, de fournir jusqu’à 20 000 douches chaudes par jour et ainsi d’éviter la combustion de 3 600 tonnes de CO₂ en gaz naturel.
Dans quelle mesure l’IA remet-elle en question le métier de développeur ? Risque-t-elle d’entrainer une dépendance ? Un nivellement des compétences ? Nous avons posé ces questions à Horacio Gonzalez, responsable des relations développeurs chez Clever Cloud.
À la BDX I/O qui s’est tenue au Palais des Congrès de Bordeaux le 7 novembre, Horacio Gonzalez donnait une conférence sur l’avenir du métier de développeur. Il y évoquait l’évolution du métier de développeur et voulait répondre surtout à une question revenant sans cesse : avec le renforcement constant des modèles et l’explosion des agents, les LLM (grands modèles de langage) vont-ils remplacer les développeurs ?
Avec un certain humour, Horacio Gonzalez s’était amusé à donner une série d’exemples des dernières décennies, en prenant le contrepied des peurs actuelles : « Les développeurs sont toujours condamnés, jusqu’à ce qu’ils ne le soient plus ».
Il citait par exemple le cas de Fortran : « Ce n’est pas un vrai langage ! Tout le monde va pouvoir copier ! Le métier est mort ! à quoi ça sert tout ce qu’on a fait ? ça va casser le travail de réflexion, on va tout écrire à la volée. Le métier de développeur est mort ». Plusieurs autres exemples fusaient, comme celui du Java : « Quel langage stupide, on va être remplacés par des gars qui ont fait un boot camp de trois semaines ». Les approches low code et no code ? « On va être remplacés par des gars qui font des boites et des flèches ».
Dans son exposé, Horacio Gonzalez montrait ainsi que chacune de ces cassures signalait une élévation du niveau d’abstraction dans le métier de développeur. Chaque étape signifiait la fin d’au moins une partie des tâches considérées comme rébarbatives, avant que les nouvelles technologies ne dévoilent leurs propres tâches rébarbatives. Le niveau d’automatisation a ainsi grimpé régulièrement, entrainant systématiquement des craintes sur la mort de la profession.
Selon le responsable de Clever Cloud, cette automatisation a déplacé à chaque fois l’expertise vers des zones que les outils précédents ne pouvaient pas atteindre. Une vision qu’il a depuis développée dans une version plus détaillée de son intervention à travers une série de billets sur son blog (en anglais).
LLM, une étape de plus ?
Le point de vue d’Horacio Gonzalez est que les développeurs se sont adaptés à chaque fois. Chaque nouvelle technologie a entrainé des changements profonds dans son apprentissage, faisant apparaître des besoins pour de nouvelles compétences.
Dans cette optique, l’arrivée des LLM n’est qu’une nouvelle cassure dans les habitudes et une remise en cause des acquis. Les savoirs et savoir-faire évolueraient en conséquence vers de nouveaux horizons : lecture critique du code, l’expression claire des idées pour créer des prompts précis, le repérage des erreurs dans les réponses générées, reconnaitre les situations où l’automatisation n’est pas nécessaire (notamment pour des questions éthiques et de confiance), être assez rigoureux pour savoir remettre en question le résultat, etc.
Selon le responsable, la pratique change avec les questions que l’on se pose. Avec les LLM par exemple, l’abstraction remplace progressivement la question « Comment écrire cette fonction ? » vers une autre interrogation : « Que devrait accomplir cette fonction ? ». Dans une relation de négociation avec la machine, il donne plusieurs analogies : de constructeur à conducteur de travaux, de musicien à chef d’orchestre, voire à compositeur.
Il évoque cependant les dangers de cette approche, qui relèvent pour beaucoup de « l’overtrust », quand on fait trop confiance à l’IA : les LLM, à cause de leur conception, produiront toujours des hallucinations, même si des techniques permettent de les limiter. À force de négocier la machine et d’utiliser des machines toujours plus performantes, le risque n’est plus tant que le LLM écrive du mauvais code, mais que le développeur ne sache plus comprendre la réponse.
L’IA remet également en question l’apprentissage, notamment chez les développeurs juniors. Horacio Gonzalez y voit un rôle renforcé pour les séniors et une nouvelle organisation tripartite entre junior, sénior et IA. L’accent devrait être mis selon lui sur la lecture critique du code, la conception des prompts et le débogage des résultats, dans une sorte de co-création guidée. Il estime d’ailleurs que l’apprentissage du développement par l’IA devient une nouvelle discipline en soi, les LLM ne pouvant pas être considérés comme un simple outil de plus dans la besace des développeurs, mais bien comme un nouveau point de bascule.
C’est cette dimension que nous avons voulu creuser avec Horacio Gonzalez, notamment les dangers pour les développeurs juniors et leur intégration dans les entreprises.
>> Dans quelle mesure l’IA influence-t-elle l’intégration des juniors ?
Il reste 70% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Le contentieux entre Meta et la Commission européenne va déboucher sur un important changement. À partir du mois prochain (la date exacte reste à définir), Meta laissera le choix aux utilisateurs de l’Union européenne entre partager ses données personnelles pour obtenir des publicités ciblées et en partager moins pour des publicités plus génériques.
Le changement a été annoncé par la Commission européenne ce 8 décembre. Elle « reconnaît l’engagement de Meta à proposer aux utilisateurs de l’UE un choix alternatif de services Facebook et Instagram qui leur proposeraient des publicités moins personnalisées, afin de se conformer à la loi sur les marchés numériques (DMA). C’est la première fois qu’un tel choix est proposé sur les réseaux sociaux de Meta ».
Comme le rappelle la Commission, cette décision fait suite à la condamnation de Meta à une amende de 200 millions d’euros en avril dernier pour avoir enfreint le DMA.
En cause, la formule « Consentez ou payer », qui réclamait de payer pour supprimer les publicités personnalisées. C’était la réponse de Meta à l’obligation de laisser le choix sur le traitement des données personnelles pour personnaliser les publicités. Or, ces formules payantes (et rapidement onéreuses) ne répondaient pas aux exigences européennes, car elles ne garantissaient pas que les données personnelles n’étaient pas traitées, uniquement que les publicités n’apparaissaient plus.
Ces abonnements ne semblent pas avoir été populaires en Europe. En mai, The Verge rapportait ainsi le témoignage de l’un des responsables de Meta, John Hegeman. Selon lui, les internautes européennes n’avaient montré qu’un « très faible intérêt » pour ces formules, seuls 0,07 % des utilisateurs ayant choisi de payer.
La Commission rappelle cependant que l’enquête n’est pas close pour autant. Une fois ce changement en place, « la Commission sollicitera des retours et des preuves de Meta et d’autres parties prenantes concernées sur l’impact et l’adoption de ce nouveau modèle publicitaire ». Et de rappeler que les utilisateurs « doivent avoir un choix complet et efficace, ce qui est leur droit au titre de la DMA ».
Deux semaines après une grande panne de plusieurs heures, Cloudflare a de nouveau rencontré un problème de configuration, aboutissant à une coupure de 25 min de ses services. La faute serait relative à un changement intervenu pour combattre l’exploitation de la faille dans React.
Cloudflare a connu une panne majeure le 5 décembre 2025 qui a duré environ 25 minutes, entre 09h47 et 10h12, heure française. L’incident a affecté environ 28 % du trafic HTTP total transitant par son réseau, provoquant des erreurs HTTP 500 pour les clients concernés.
Protection lourde
La faute à un bug logiciel déclenché lors du déploiement d’une protection contre la vulnérabilité CVE-2025-55182 affectant React Server Components. Pour contrer cette faille critique (score CVSS de 10/10), Cloudflare a en effet créé de nouvelles règles dans son WAF (Web Application Firewall) et augmenté la taille du buffer d’analyse des requêtes HTTP de 128 ko à 1 Mo pour protéger ses clients utilisant Next.js.
Durant le déploiement de cette augmentation, un outil interne de test a généré des erreurs. L’équipe a alors décidé de le désactiver via son système de configuration globale, qui propage rapidement (« en quelques secondes ») les changements sur l’ensemble du réseau.
Cette modification a exposé un bug latent dans le proxy FL1 (une ancienne version). Le code Lua contenait une erreur de type « nil pointer » lors du traitement des règles du WAF avec action « execute » lorsque celles-ci étaient désactivées via le killswitch. Seuls les clients utilisant le proxy FL1 avec le Cloudflare Managed Ruleset déployé ont été touchés. Ce type d’erreur n’aurait pas pu se produire avec FL2, le nouveau proxy écrit en Rust, affirme Cloudflare.
Cloudflare se concentre sur les correctifs
Cet incident survient seulement deux semaines après une autre panne majeure le 18 novembre 2025. Cloudflare reconnaît que les modifications de sécurité promises après cette première panne n’ont pas encore été complètement déployées.
L’entreprise s’engage à publier cette semaine un plan détaillé des projets de résilience en cours, incluant des diffusions progressives améliorées avec validation automatique de la santé des services, des capacités de rollback rapide et une logique « fail-open » pour éviter que les erreurs de configuration ne bloquent le trafic. En attendant, tous les changements sur leur réseau sont mis en pause.
GLF OS, dont nous avions suivi le lancement début septembre, est une distribution Linux française spécialisée dans le jeu vidéo. Alors que les lignes commencent à bouger dans cet univers sous l’impulsion d’un Windows 10 privé de support et d’une couche d’émulation Proton ayant prouvé son efficacité, l’équipe derrière GLF OS vient de lancer une mise à jour importante.
La nouvelle mouture, nommée Phoenix, intègre le noyau Linux 6.17 et met à jour bon nombre de composants internes, dont GNOME 49.1 et KDE Plasma 6.5. Mesa passe en version 25.2.3, amenant le support de FSR4 pour les cartes AMD et Intel, ainsi qu’une meilleure stabilité pour les jeux AAA avec Proton. La distribution intègre également les pilotes NVIDIA 580.105, avec à la clé une meilleure prise en charge des GPU récents et des correctifs pour Wayland.
Plusieurs changements internes importants sont en outre à signaler. Le gestionnaire de démarrage Grub a été remplacé par systemd-boot, « garantissant l’installation de GLF OS sur un maximum de machines ». Un correctif pour l’hibernation de la machine a été implémenté, de même que la compatibilité avec le Stream Deck d’Elgato. Plusieurs extensions GNOME ont été ajoutées, comme Dash to panel, Openbar et Rounded Window Corner. Les miniatures pour les vidéos font également leur apparition dans Nautilus.
Pour les personnes souhaitant installer la version Studio, on note un temps d’installation fortement réduit. Cette variante intègre en effet plusieurs applications spécifiques, dont DaVinci Resolve, qui était compilée au dernier moment. Cette étape a été déplacée côté serveurs, aboutissant à une durée d’installation qui peut être réduite d’un facteur allant jusqu’à 6. Ce fonctionnement concerne d’ailleurs d’autres composants, comme les pilotes NVIDIA, réduisant le temps d’installation de toutes les versions, même si DaVinci était de loin le plus « gros caillou », comme nous le confirme Vinceff, fondateur du projet.
GLF OS est pour rappel développé sur la base de NixOS et est donc un système immuable. Une notification signale aux utilisateurs que des mises à jour sont en attente d’un redémarrage pour être appliquées.
La société autrichienne Proxmox vient de lancer la première version finale de son Datacenter Manager. Le composant était attendu, car il permet de centraliser de nombreuses opérations de gestion et de garder une vue d’ensemble sur les infrastructures Proxmox VE. Dans un contexte tendu par le rachat de VMware par Broadcom, le nouveau produit pourrait offrir une porte de sortie aux entreprises.
Dans son communiqué publié hier soir, Proxmox reconnait volontiers qu’il manquait une brique essentielle dans son offre : « Gérer des centres de données en pleine croissance, répartis sur plusieurs sites ou clusters, présente constamment des défis majeurs pour les entreprises et les équipes. L’absence de supervision globale, des indicateurs fragmentés et la nécessité d’effectuer manuellement des opérations complexes dans divers environnements peuvent rapidement entraîner des inefficacités et une plus grande susceptibilité aux erreurs ».
Le nouveau Datacenter Manager est donc une réponse à cette problématique. Il joue le rôle d’agent de liaison entre les nœuds et clusters individuels et propose une vue unifiée.
Cap sur la centralisation et le pilotage
PDM, pour Proxmox Datacenter Manager, propose ainsi un tableau de bord pour avoir un œil sur les principales informations. Le tableau affiche ainsi l’état de santé des clusters Proxmox VE et instances Backup Server, agrège l’utilisation critique des ressources (CPU, mémoire et entrées/sorties pour le stockage), fournit une vue des KPI (key performance indicators) et indicateurs de performances, avec une promesse de vision immédiate des goulots et autres problèmes. Les données sont mises en cache, pour que le dernier état connu reste accessible.
Ce dashboard général peut être accompagné d’autres tableaux personnalisés, pour cibler une partie spécifique de la structure, ou des indicateurs particuliers. Le contrôle d’accès basé sur les rôles (RBAC) permet d’accorder des accès à ces vues personnalisées sans fournir pour autant un accès aux machines virtuelles ou aux hôtes.
Migration à chaud des machines virtuelles
Autre capacité attendue, la possibilité de migrer à chaud des machines virtuelles d’un cluster à un autre, facilitant notamment les opérations de maintenance. La même interface centrale permet de réaliser d’autres opérations comme le démarrage, l’arrêt ou la configuration des machines virtuelles, conteneurs et autres ressources de stockage. Là encore, le RBAC permet d’octroyer des permissions spécifiques à des utilisateurs et de centraliser les historiques et journaux, par exemple à des fins d’audits.
Et tant qu’à y être, PDM propose d’autres fonctions, notamment un moteur de recherche décrit comme « très puissant » et inspiré de ce que l’on trouve déjà dans Elastic Search et GitHub, surtout pour filtrer et trouver des ressources. Datacenter Manager prend également en charge le réseau défini par logiciel (SDN) et centralise les mises à jour dans un panneau dédié.
Proxmox Datacenter Manager est basé sur la distribution Debian 13.2, avec un noyau Linux 6.17 et le support de ZFS 2.3. L’éditeur ajoute que sa pile logicielle centrale est écrite en Rust et que l’interface (en responsive) fournit « une expérience utilisateur optimale ». Les images ISO sont disponibles depuis le site officiel. Pour rappel, les produits sont gratuits, mais l’entreprise vend des abonnements incluant notamment le support technique.
Une porte de sortie ?
Depuis le rachat de VMware par Broadcom, la situation s’est crispée pour de nombreux clients autour de la virtualisation. Des plaintes ont été déposées et une partie des entreprises cherche à briser sa dépendance aux produits VMware en regardant vers la concurrence. Proxmox fait partie des solutions envisagées, mais l’absence d’une solution pour centraliser la gestion de nombreux nœuds était un frein.
Chez moji (la société ayant racheté Next il y a un peu plus de deux ans), le SRE (Site Reliability Engineer) Alexandre Gliganic nous indique que le produit est testé depuis les premières versions alpha et que les nouvelles fonctions font la différence, notamment le tableau de bord unifié. L’entreprise se sert largement de Proxmox depuis plusieurs années.
« Pour moi, une des fonctionnalités les plus fortes, c’est la migration live inter-clusters. Avant, pour migrer une VM du cluster A vers le cluster B, il fallait passer par une migration à froid via le système de backup Proxmox (PBS), ou utiliser des commandes QEMU (pas très user-friendly pour la plupart des gens). Avec PDM, on ajoute simplement les deux clusters au système, on sélectionne la VM et on clique sur “migrer” vers le cluster cible. Et ça fonctionne directement », s’enthousiasme l’ingénieur.
Il met également en avant les tableaux de bord personnalisés : « On peut créer des dashboards personnalisés en fonction des rôles assignés aux utilisateurs PDM. C’est très pratique. Par exemple, pour que l’équipe support voie les métriques des clusters clients, mais pas celles des clusters internes ».
« Ce qui est intéressant avec PDM, c’est qu’on retrouve enfin une logique de gestion globale qui manquait à l’écosystème Proxmox, un peu comme ce que beaucoup d’équipes infra ont toujours eu avec des plateformes comme vCenter dans le monde VMware/ESXi », ajoute Alexandre Gliganic.
Un chercheur a découvert dans le composant React Server Components une faille dont le score de gravité CVSS atteint la note maximale de 10. Des correctifs ont été rapidement publiés et il est recommandé de mettre à jour les applications et autres composants concernés le plus rapidement possible.
Dans une note publiée le 3 décembre, la fondation React a averti d’une faille extrêmement critique dans le framework (cadriciel) React Server Components. Estampillée CVE-2025-55182, elle a reçu la plus grande note possible au score CVSS, soit 10.
Dans son billet de blog, la fondation indique que le signalement de la faille a été fait le 29 novembre par le chercheur Lachlan Davidson. Elle réside dans les versions 19.0, 19.1.0, 19.1.1 et 19.2.0 des composants suivants : react-server-dom-webpack, react-server-dom-parcel et react-server-dom-turbopack.
Exploitée, la faille peut permettre l’exécution de commandes arbitraires à distance. Elle a même reçu un nom : React2Shell. Initialement, deux failles avaient été signalées. La seconde, dans Node.js et numérotée CVE-2025-66478, a cependant été rejetée par le NIST américain, car il s’agissait finalement du même mécanisme.
Une grande facilité d’exploitation
Selon la société Wiz qui s’est penchée sur la question, une grosse partie du problème tient à l’exploitation particulièrement simple de cette faille, faisant exploser son score CVSS. Deux composantes sont mises en avant : la faille est exploitable dans toutes les configurations, et il ne suffit que d’une requête HTTP spécialement conçue pour déclencher la suite.
La société explique qu’il s’agit d’un cas de désérialisation logique. Il découle de la manière dont les React Server Components (RSC) gèrent les requêtes. Une personne non authentifiée pourrait ainsi créer une requête HTTP malveillante à n’importe quel point de terminaison Server Function qui, au moment où React s’occupe de la désérialisation, entraine l’exécution d’un code JavaScript arbitraire sur le serveur.
Dans son billet, la fondation React n’en dit pas plus, car elle explique attendre une diffusion plus importante des correctifs avant de donner plus de détails.
Toute bibliothèque utilisant RSC (comme Vite RSC, Parcel RSC, React Router RSC preview, RedwoodJS, ou encore Waku) est concernée par la faille et il faut donc surveiller l’arrivée de mises à jour, déjà publiées dans de nombreux cas. « La vulnérabilité affecte les configurations par défaut du framework, ce qui signifie que les déploiements standards sont immédiatement exploitables sans conditions particulières », indique la société de sécurité Endor Labs.
Que faire ?
L’urgence est d’appliquer les nouvelles versions 19.0.1, 19.1.2 et 19.2.1 des trois composants react-server-dom. Jusqu’à ce qu’ils puissent être déployés, il est conseillé d’appliquer des règles WAF (Web Application Firewall).
Plusieurs entreprises de premier plan ont d’ailleurs réagi à ce sujet. Cloudflare a annoncé dès le 3 décembre avoir mis à jour son WAF pour protéger ses clients. L’éditeur ajoute que même si les nouvelles règles bloquent les éventuelles attaques, il reste recommandé de mettre à jour aussi vite que possible les composants logiciels concernés.
Même son de cloche chez Google pour sa Cloud Armor, qui décrit les nouvelles règles du pare-feu applicatif comme une mesure temporaire d’atténuation. On retrouve les mêmes éléments de langage chez Akamai et AWS.
Coup sur coup, deux entreprises françaises ont reconnu des fuites de données. La quantité d’informations a priori dans la nature n’est cependant pas la même dans les deux cas, la fuite chez Médecin Direct étant la plus grave.
Alors que France Travail annonçait une nouvelle fuite de données il y a quelques jours, deux nouveaux piratages ont été confirmés en France. Pour le magasin de bricolage, SaxX a averti d’une fuite le 2 décembre. À ce moment, l’enseigne commençait à envoyer des e-mails pour prévenir les clients concernés que leurs données avaient été piratées. Dans la capture du courrier, on pouvait lire que celles-ci comprenaient le nom, le prénom, le numéro de téléphone, l’adresse e-mail, l’adresse postale et la date de naissance. Leroy Merlin précisant également que les coordonnées bancaires et les mots de passe n’étaient pas touchés.
Ce 4 décembre, Leroy Merlin a confirmé l’information au Monde, via l’AFP. « Les clients concernés ont été informés dès que nous avons pris connaissance de l’attaque », a ainsi indiqué l’enseigne, qui a ajouté que des vérifications étaient « en cours » pour mesurer l’étendue du problème. Comme toujours dans ce genre de cas, la CNIL a été prévenue (les entreprises y sont tenues par la loi) et une plainte va être déposée. Il est demandé aux clients, encore une fois, d’être vigilants sur l’usage frauduleux qui pourrait être fait de leurs données.
Médecin Direct : des données médicales dans la nature
Dans le cas de Médecin Direct, une plateforme de téléconsultation, le problème est plus grave. SaxX a publié hier la capture du courrier envoyé aux clients concernés. On peut y lire que des informations ont pu être dérobées. D’abord à caractère personnel, avec globalement les mêmes données que pour Leroy Merlin, auxquelles s’ajoute le numéro de sécurité sociale, s’il a été donné.
Surtout, des données de santé ont pu être exfiltrées : « l’objet de la téléconsultation, les données renseignées dans le questionnaire de pré-consultation, les données échangées par écrit avec le professionnel de santé », précise le courrier. « En revanche, les documents que vous avez pu transmettre ou recevoir à l’occasion de la téléconsultation ne sont pas concernés ». Le pire semble évité, mais les informations décrites peuvent quand même s’avérer très sensibles, selon les cas. On apprend également dans l’e-mail que l’intrusion aurait été détectée le 28 novembre.
À 01net, l’entreprise française a confirmé la fuite, sans développer : « Nos services fonctionnent normalement et nous avons renforcé nos mécanismes de surveillance et de protection. Notre plateforme dispose des niveaux de sécurité conformes au cadre réglementaire strict applicable à la télémédecine. Une enquête sur l’origine de cet incident a été diligentée et nous ne pouvons pas partager davantage de détails à ce stade ».
Dans les deux cas, SaxX affirme que c’est le groupe de pirates Dumpsec qui aurait revendiqué l’attaque. Ils seraient à l’origine d’une grande vague de piratages ces derniers mois, dont les 1 300 mairies que nous évoquions il y a peu.
Les risques sont toujours les mêmes. Ces informations, même quand elles ne sont pas sensibles comme peuvent l’être les données médicales, peuvent être utilisées dans le cadre de campagnes de phishing. Plus les pirates ont d’informations, plus ils peuvent personnaliser leurs tentatives. Avec suffisamment d’informations, le risque peut grimper jusqu’à l’usurpation d’identité.
Linus Torvalds est connu pour ses positions franches. On se souvient du doigt d’honneur fait à NVIDIA en 2012, en témoignage de sa colère face au comportement d’une entreprise très peu intéressée par l’open source. Nous avions résumé une partie de ces problèmes dans notre article sur la transition X11/Wayland.
En octobre 2024, Linus Torvalds s’en était pris à Intel et AMD, critiquant leur « matériel bogué » et l’avalanche de modifications logicielles rendues nécessaires par les multiples failles découvertes, bal ouvert début 2018 par Spectre et Meltdown. La même année, il avait d’ailleurs fait une pause pour s’occuper de son caractère, souvent jugé brutal. Mais il lui est arrivé aussi de siffler la fin de la récréation en intervenant dans des débats houleux pour calmer le jeu, notamment dans les discussions vives autour de l’intégration de Rust dans le noyau.
Cette fois, le père du noyau Linux s’en est pris à Elon Musk. Il y a quelques jours, Linus Torvalds apparaissait dans une vidéo du youtubeur Linus Sebastian (chaine Linus Tech Tips), centrée sur le montage d’un nouveau PC pour les besoins du développeur. Les deux Linus discutaient de divers sujets, dont la productivité au travail face à l’IA.
Le youtubeur a ainsi évoqué le cas d’une « grande entreprise » où les développeurs devaient indiquer leur nombre de lignes de code écrites, avec possibilité de licenciement si ce n’était pas assez. Torvalds avait bien sûr un avis très tranché sur la question : « Oh oui, non, tu ne devrais même pas être contrarié là-dessus. C’est juste de l’incompétence. Quiconque pense que c’est un indicateur valable est trop stupide pour travailler dans une entreprise tech ».
Linus Sebastian lui a alors demandé s’il savait de qui il était en train de parler. Devant le « non » de Torvalds, le youtubeur lui a répondu : « Oh. Euh… il a été une figure importante de l’amélioration de l’efficacité du gouvernement américain récemment ». Et Torvalds d’enchainer : « Oh, apparemment j’avais vu juste ».
La Russie bloque désormais les communications FaceTime sur les appareils Apple, principalement l’iPhone. FaceTime permet pour rappel des communications (réellement) chiffrées de bout en bout entre appareils frappés d’une pomme.
La nouvelle a été retransmise il y a quelques heures par Reuters, qui en a obtenu confirmation par l’agence Roskomnadzor, régulateur des télécommunications en Russie. Contactée par nos confrères, l’agence a répondu : « Selon les agences de maintien de l’ordre, FaceTime est utilisé pour organiser et mener des attaques terroristes dans le pays, recruter des auteurs et commettre des fraudes et d’autres crimes contre des citoyens russes ». Roskomnadzor n’a pas élaboré.
Toujours selon Reuters, les symptômes ont commencé aujourd’hui même. Bien qu’Apple ne vende plus ses produits depuis l’attaque contre l’Ukraine (la page officielle russe renvoie directement au support technique), de nombreux iPhone restent en circulation. Mais depuis peu, les appels FaceTime échouent, l’application indiquant « Utilisateur indisponible ». Selon un témoignage, la demande d’appel est bien émise, mais le contact ne s’établit pas une fois la communication acceptée.
Le blocage de FaceTime n’est que la dernière décision en date de la Russie contre les technologies occidentales. Au cours des trois dernières années, de nombreux services ont été concernés, avec par exemple Instagram dès mars 2022. En aout, on apprenait que l’agence Roskomnadzor avait annoncé le blocage partiel des appels sur WhatsApp et Telegram, et que le magasin d’applications RuStore devenait obligatoire sur les nouveaux smartphones.
RuStore a été développé par VK, l’entreprise russe possédant le réseau social du même nom, ce dernier ayant été créé par Pavel Durov, également fondateur de Telegram. La même entreprise a développé la messagerie Max, que le gouvernement russe met largement en avant désormais. Selon Reuters, de nombreuses critiques se sont élevées pour dénoncer un outil de surveillance des citoyens russes, accusations réfutées par la presse d’État.
Dans le Patch Tuesday de novembre, Microsoft a corrigé une faille exploitée depuis des années. Non-critique, l’entreprise ne la considérait d’ailleurs même pas comme une vulnérabilité. Elle a pourtant été utilisée très activement dans plusieurs campagnes.
Microsoft a discrètement corrigé une faille dans les fichiers raccourcis Windows (LNK) qui était exploitée activement depuis 2017 par de nombreux acteurs malveillants, rapporte ACROS Security (relayé par The Hacker News).
Dangerosité variable
Estampillée CVE-2025-9491, cette vulnérabilité permettait de cacher des commandes malveillantes dans les fichiers LNK en exploitant une limitation de l’interface Windows : la boîte de dialogue des propriétés n’affichait que les 260 premiers caractères du champ « Target », alors que la structure du fichier autorise jusqu’à 32 000 caractères. Les pirates pouvaient ainsi créer des raccourcis contenant des commandes arbitraires invisibles à l’inspection visuelle, en utilisant des caractères d’espacement et en plaçant le code malveillant au-delà de la limite d’affichage.
La dangerosité de cette faille varie selon les acteurs l’ayant cataloguée. Le NIST lui a donné un score CVSS de 7,8, lui affectant une dangerosité élevée. Même dangerosité pour la Zero Day Initiative de Trend Micro (qui en a parlé la première en mars dernier), avec un score de 7. La CISA (Agence de cybersécurité et de sécurité des infrastructures) américaine ne lui accorde en revanche qu’un score de 3.
Une faille exploitée activement
Cette vulnérabilité a été exploitée par au moins 11 groupes APT chinois, iraniens, nord-coréens et russes dans des campagnes d’espionnage et de vol de données, selon Trend Micro. Le groupe XDSpy l’a notamment utilisée pour distribuer le malware XDigo contre des entités gouvernementales d’Europe de l’Est en juin 2025, et des acteurs chinois ont ciblé des entités diplomatiques et gouvernementales européennes avec PlugX en octobre 2025, selon des rapports de HarfangLab et Arctic Wolf.
À l’époque, Microsoft avait refusé de la corriger, arguant qu’elle ne justifiait pas un correctif immédiat car elle nécessitait une interaction utilisateur et que Windows affichait déjà des avertissements sur les fichiers non fiables. Dans une note publiée le 1ᵉʳ novembre, Microsoft explique ne même pas considérer CVE-2025-9491 comme une faille, considérant que l’utilisateur est prévenu plusieurs fois avant de continuer.
Quoi qu’il en soit, le correctif modifie le comportement de la boîte de dialogue des propriétés pour afficher l’intégralité de la commande Target, quelle que soit sa longueur.
Il y a un mois, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam. Le mouvement était d’autant plus intéressant qu’il intervenait quelques semaines après la fin de support de Windows 10. La question restait cependant en suspens : s’agissait-il d’un simple pic ou la dynamique allait-elle être confirmée ?
Dans les derniers chiffres publiés par la plateforme de Valve, on peut voir que Linux confirme bien cette tendance. Sa part de marché, toutes distributions confondues, est en légère augmentation avec 3,2 %.
Le score fait toujours pâle figure devant un Windows triomphant et ses 94,79 %, mais il témoigne d’un changement qui semble s’inscrire dans le temps, entre joueurs et joueuses gardant leurs installations et nouveaux arrivants.
Comme pour les chiffres du mois dernier, SteamOS est la distribution la plus utilisée, avec 26,4 %, grâce au Steam Deck. Les trois autres distributions les plus utilisées restent Arch Linux (9,97 %), Linux Mint 22.2 (7,36 %) et CachyOS (6,74 %), une distribution spécialisée dans le jeu vidéo. Dans ce domaine d’ailleurs, Bazzite fait un bond de 1,29 point pour atteindre 5,53 %. Debian 13 est référencée pour la première fois avec 1,58 %.
Si les chiffres ne témoignent pas d’un séisme, ils restent intéressants à surveiller par leurs implications. Le jeu vidéo a été jusque-là une chasse gardée de Microsoft, l’immense majorité des jeux étant bâtis pour DirectX et autres technologies Windows. Les agacements autour de Windows 11 et l’obsession de Microsoft pour l’IA pourraient encore influer sur les parts de marché, mais il est probable que les nouveaux PC soient encore vendus avec Windows pour longtemps.
Dans le cadre de sa conférence annuelle re:Invent 2025, AWS a une nouvelle fois annoncé une longue suite d’améliorations liées à l’IA, dont sa famille de modèles Nova 2. De nouveaux agents ont également été présentés, ainsi que le service Forge, qui doit permettre la création de modèles Nova personnalisés.
La grand-messe annuelle d’AWS pour les développeurs bat actuellement son plein à Las Vegas (elle finit le 5 décembre). Comme toujours depuis quelques années, il n’est pratiquement question que d’intelligence artificielle, avec notamment le lancement de la famille Nova 2 pour cette cuvée 2025. On trouve aussi une flopée d’annonces pour les agents, et le lancement de la puce Trainium3 via des offres maison, comme nous l’avons déjà indiqué.
La famille Nova, un lot de modèles maison, revient cette année dans une version 2. Contrairement à l’année dernière où seuls des modèles texte avaient été lancés, AWS couvre cette fois tous les angles.
L’entreprise met particulièrement en avant son Nova 2 Lite, un petit modèle de raisonnement multimodal placé en face de Haiku 4.5 chez Anthropic, GPT 5 Mini chez OpenAI et Gemini 2.5 Flash chez Google (Gemini 3 n’a pour l’instant qu’une version Pro). Ce modèle Lite est présenté comme une alternative solide, pas un vainqueur toutes catégories, même s’il prend la tête dans environ deux tiers des benchmarks présentés.
Si Lite est surtout présenté comme le modèle plus rentable par AWS, d’autres sont présents. On trouve ainsi Nova 2 Pro, orienté vers les tâches complexes, tandis qu’Omni est la version à tout faire, capable de générer tous types de contenus. Ce modèle dispose notamment d’une fenêtre contextuelle d’un million de jetons, prend plus de 200 langues en compte en entrée et une dizaine en sortie. Comme toujours dans ces gammes de modèles, le prix grimpe avec les capacités et le nombre de paramètres.
On se souvient également qu’en avril dernier, AWS avait ajouté Nova Sonic à ses modèles pour viser les échanges vocaux. L’entreprise n’attend pas un an cette fois, Nova Sonic 2 prend déjà la relève. De manière prévisible, la nouvelle mouture présente des voix plus naturelles, de meilleures performances et une meilleure ouverture sur les agents. Comme pour Lite, AWS ne revendique pas la couronne dans tous les tests pour Sonic 2, mais une version plus aboutie du modèle et gérant un plus grand nombre de langues.
« Pour les développeurs, cela signifie que vous pouvez créer des applications qui servent des audiences mondiales sans avoir besoin de modèles vocaux distincts pour chaque langue. Une application de support client pourrait gérer un dialogue qui commence en anglais et passe à l’espagnol en plein milieu d’une conversation, tout en conservant le même flux et les mêmes caractéristiques vocales tout au long de la conversation », indique AWS dans un billet de blog.
En parallèle de ces nouveaux modèles, AWS a présenté Nova Forge, un service permettant aux clients de créer leurs propres modèles Nova. Selon AWS, Forge vient combler un vide, car les approches habituelles pour personnaliser les modèles – ingénierie des prompts, RAG, ajustement fin personnalisé, apprentissage par renforcement… – ont toutes des limites. Forge se propose donc de créer des modèles entrainés sur les données spécifiques de l’entreprise cliente pour obtenir de « vrais modèles personnalisés ». Toutes les étapes seront prises en charge selon AWS, dont le pré-entrainement, l’entrainement intermédiaire et l’affinage supervisé. Forge n’est pour l’instant disponible que dans la région US East (Virginie du Nord), celle-là même qui avait provoqué une vaste panne en octobre.
À noter qu’AWS annonce aussi la disponibilité sur Bedrock de 18 nouveaux modèles open source, dont ceux de la famille Mistral 3, tout juste lancée.
La guerre sur les capacités agentiques continue, avec d’abord un renforcement de la plateforme AgentCore AI, qui sert à les construire chez Amazon. L’un des principaux ajouts est la fonction Policy, qui permet aux utilisateurs de définir des limites pour les interactions avec les agents ou entre eux. Ces barrières sont ensuite intégrées à AgentCore Gateway, chargé de connecter les agents aux outils externes et désormais de vérifier que chaque action opère dans le cadre souhaité.
Gateway se dote d’ailleurs d’une suite de 13 systèmes d’évaluation préconçus pour les agents. Ils vérifient les opérations des agents sur des aspects standards, comme la sécurité et la précision des choix opérés. Des alertes peuvent être émises, mais AWS les présente également comme une manière de se faire la main en attendant la création de règles personnalisées.
On note aussi l’apparition de AgentCore Memory, qui vient ajouter de la mémoire aux agents. La fonction est faite pour autoriser ces derniers à bâtir un contexte autour de chaque utilisateur dans le temps. Les informations prises en compte peuvent être récupérées automatiquement (dates et heures des déplacements, préférences pour les hôtels…) ou imposées.
Kiro et ses compères
AWS en profite bien sûr pour lancer plusieurs nouveaux agents spécifiques, baptisés « agents frontières » : un pour l’écriture de code, un autre pour les processus de sécurité associés et un dernier pour automatiser les tâches de DevOps.
Le premier, Kiro, est le plus mis en avant. Il est censé apprendre avec le temps les préférences du développeur et pouvoir programmer seul ensuite pendant plusieurs jours, affirme AWS. L’entreprise va plus loin en indiquant que Kiro doit produire du code prêt pour la production. Ce développement se fait en revanche en suivant les règles de l’entreprise, qu’il faut donc renseigner. AWS baptise ce concept « développement piloté par les spécifications ». Et si le nom vous est familier, c’est parce que cet agent a été bâti sur les fondations de l’IDE du même nom, qui avait été annoncé en juillet.
Les deux autres agents, Security et DevOps, présentent des fonctions que l’on peut attendre dans ces contextes. Le premier travaille à vérifier la sécurité du code au fur et à mesure qu’il est écrit, s’occupe des tests ensuite et propose des solutions. Le second s’occupe lui aussi de tester le nouveau code, mais avec un accent sur les performances et la compatibilité avec d’autres éléments, logiciels ou matériels. On ne sait pas dans quelle mesure l’ensemble est fiable et permet de gérer les hallucinations, car ces trois nouveaux agents ne sont pour l’instant disponibles qu’en préversions.
Des usines d’IA en partenariat avec NVIDIA
AWS a également annoncé l’arrivée des « AI Factories ». Ces dernières sont une sorte de généralisation de l’offre « souveraine » lancée en Europe en juin, dont la première incarnation prendra place en Allemagne.
Le concept est globalement le même : une grande entreprise ou un gouvernement fournit le centre de données et l’électricité, et AWS fournit le système d’IA, avec possibilité d’établir des liens avec d’autres services AWS ou non. Cette offre a été construite en partenariat avec NVIDIA. Le client peut ainsi choisir entre les GPU Blackwell de cette dernière, les nouvelles puces Trainium3 d’AWS ou un mélange des deux. Dans son exposé, AWS assure que la solution est idéale pour les gros besoins en IA, sans avoir à se lancer dans la conception d’un système complet.
La partie « souveraineté » est censée être assurée par une séparation physique, avec des données ne quittant jamais le centre où ont lieu les opérations. « Les usines d’IA AWS sont conçues pour répondre aux normes de sécurité rigoureuses d’AWS, offrant aux gouvernements la confiance nécessaire pour gérer leurs charges de travail les plus sensibles à tous les niveaux de classification : non classifié, sensible, secret et top secret », affirme même AWS.
Comme on l’a vu toutefois à plusieurs reprises, tout dépend de ce que l’on entend par « souveraineté ». En Europe, le problème se situe surtout dans l’extraterritorialité de certaines lois, dont l’emblématique Cloud Act américain. Les lancements de certaines offres chez Microsoft et AWS ne semblent pas régler cette question. En France, les sociétés Bleu et S3ns semblent répondre à ces critères, car les briques logicielles sont fournies par Microsoft et Google, sans connexion aux clouds existants. Les deuxoffres ont passé le jalon J0 de la certification SecNumCloud de l’ANSSI, mais il faut encore que les démarches aboutissent.