Vue normale

Reçu aujourd’hui — 9 décembre 2025

☕️ Firefox 146 supporte la mise à l’échelle fractionnée pour Wayland

9 décembre 2025 à 15:31

La nouvelle mouture de Firefox apporte plusieurs évolutions notables. L’une des plus importantes est l’arrivée de la mise à l’échelle fractionnée pour Wayland. Dans les grandes lignes, c’est l’ensemble de l’affichage qui devrait être plus efficace et réactif sur les sessions Wayland. Un changement important, qui réjouit particulièrement Michael Larabel, de Phoronix.

Firefox 146 présente d’autres améliorations sous le capot. La version Mac contient ainsi désormais un processus GPU dédié, qui servira pour WebGPU, WebGL ainsi que le propre moteur WebRender du navigateur. Mozilla indique dans les notes de version que cet ajout permettra de redémarrer silencieusement le processus GPU en cas d’erreur fatale, plutôt que d’entrainer un plantage du navigateur. Sous Windows, le support de l’ancienne API Direct2D est supprimé (il reste disponible dans la version ESR).

Mozilla a également ajouté un système de sauvegarde sous Windows, à destination en particulier des personnes sous Windows 10. En plus du service de synchronisation habituel, Firefox peut maintenant lancer une sauvegarde une fois par jour. Le fichier comprend notamment les favoris et mots de passe, avec possibilité d’y glisser d’autres catégories de données. Il peut aussi être protégé par un mot de passe et est alors chiffré. Ce fichier peut ensuite servir pour une installation neuve du navigateur, y compris sur un autre appareil.

Parmi les autres nouveautés, signalons la disponibilité des Firefox Labs pour l’ensemble des utilisateurs, l’arrivée dans l’Union européenne d’un widget météo pour la page Nouvel onglet, une nouvelle version de la bibliothèque graphique Skia pour améliorer les performances et la compatibilité, ou encore le masquage automatique des propriétés CSS inutilisées dans l’Inspecteur pour réduire l’encombrement.

Enfin, Firefox 146 corrige treize failles de sécurité, dont cinq de gravité élevée.

Infomaniak, nouvel acteur sur la scène des chatbots avec Euria

9 décembre 2025 à 15:17
« L’Europe doit investir »
Infomaniak, nouvel acteur sur la scène des chatbots avec Euria

Infomaniak vient de lancer son IA maison. L’entreprise suisse insiste particulièrement sur la dimension souveraine, sécurisée et autonome de son infrastructure, ainsi que sur la récupération de la chaleur générée pour chauffer des logements à Genève.

Infomaniak se présente comme un nouvel acteur dans la cour rapidement grandissante des fournisseurs de solutions IA. Le produit se nomme Euria, un chabot qui entre en concurrence directe avec ChatGPT, Claude et autre Mistral. Le nom est d’ailleurs l’acronyme de « Éthique, Universelle, Responsable, Indépendante et Autonome ». Après un lancement discret en juin dans kDrive, le chatbot prend ses aises.

Un modèle freemium et une tarification agressive

Le nouveau service est disponible via une page web, ou par l’application mobile sur Android et iOS. Comme souvent avec les chatbots, on trouve une version gratuite pour répondre aux questions, bloquée une fois un palier atteint (ce point n’est pas clairement précisé). Après quoi, il faudra l’une des formules payantes de la kSuite (à partir de 19 euros par an).

On note d’ailleurs qu’Infomaniak n’a pas créé de formule payante spécifique pour son nouveau service. On peut en outre utiliser Euria sans créer de compte, mais le chatbot en réclamera rapidement un après quelques requêtes (trois dans notre cas). On note dans l’ensemble des réponses assez rapides.

Euria est multimodal. Les demandes peuvent être faites textuellement ou par la voix, on peut lui envoyer des documents et autres fichiers, lui demander des transcriptions audio, d’interpréter des tableaux et autres graphiques, de lancer des recherches sur le web ou encore des raisonnements plus complexes. Infomaniak explique que le raisonnement et la recherche web sont utilisés automatiquement en fonction du contexte, mais on peut forcer la recherche en la demandant explicitement au chatbot. Des évolutions sont déjà prévues, dont la génération d’images, des agents et de la mémoire pour le contexte.

Infomaniak promet le respect des données

Côté sécurité et confidentialité, Infomaniak assure que des chiffrements sont appliqués « à toutes les étapes ». Il faut comprendre pendant le transport et au repos, mais Infomaniak peut accéder aux données sur ses serveurs. Point important, l’entreprise ajoute que les données traitées ne sont jamais utilisées « pour entraîner des modèles d’intelligence artificielle, établir des profils ou alimenter des systèmes tiers ».

Un mode éphémère est proposé pour aller plus loin, l’entreprise assurant alors qu’aucune trace n’est laissée et que rien ne peut être récupéré, y compris par Infomaniak. Tous les traitements ont lieu dans le datacenter D4 situé en Suisse, inauguré en début d’année.

Des modèles open source

Infomaniak n’a cependant pas développé de modèle maison. À la place, l’entreprise se sert de plusieurs modèles open source. Si l’annonce n’en parle pas, l’entreprise nous a répondu, par la voix de Thomas Jacobsen, son responsable communication et marketing : elle se sert de Mistral (Small 3.2) pour les images, Qwen3 (Alibaba) pour la partie texte, et de Whisper d’OpenAI pour l’audio.

« Notre stack évolue en permanence afin d’intégrer les meilleurs modèles open source disponibles au moment où ils deviennent pertinents. Nous contribuons et suivons de près l’évolution d’Apertus, et nous étudions déjà la possibilité d’adopter le prochain modèle de Mistral. Dans nos choix technologiques, l’impact écologique joue également un rôle essentiel : nous cherchons systématiquement le meilleur compromis entre performance et consommation de ressources »

Infomaniak en profite pour lancer un cri d’alarme à ce sujet : « À ce jour, aucun des modèles les plus performants n’est européen. Ce constat doit nous interpeller : l’Europe doit investir pour rattraper son retard et bâtir ses propres modèles d’IA souverains, éthiques et neutres en carbone. Plus les utilisateurs choisiront des acteurs locaux, plus nous aurons les moyens de construire cette indépendance technologique », a déclaré Marc Oehler, CEO d’Infomaniak.

Enfin, Infomaniak met en avant l’aspect écologique de son datacenter, utilisé par Euria, dont la chaleur est récupérée et réinjectée dans le réseau de chauffage urbain. L’objectif est d’atteindre la pleine puissance en 2028 et alors de chauffer jusqu’à 6 000 logements à Genève en hiver, de fournir jusqu’à 20 000 douches chaudes par jour et ainsi d’éviter la combustion de 3 600 tonnes de CO₂ en gaz naturel.

☕️ Firefox 146 supporte la mise à l’échelle fractionnée pour Wayland

9 décembre 2025 à 15:31

La nouvelle mouture de Firefox apporte plusieurs évolutions notables. L’une des plus importantes est l’arrivée de la mise à l’échelle fractionnée pour Wayland. Dans les grandes lignes, c’est l’ensemble de l’affichage qui devrait être plus efficace et réactif sur les sessions Wayland. Un changement important, qui réjouit particulièrement Michael Larabel, de Phoronix.

Firefox 146 présente d’autres améliorations sous le capot. La version Mac contient ainsi désormais un processus GPU dédié, qui servira pour WebGPU, WebGL ainsi que le propre moteur WebRender du navigateur. Mozilla indique dans les notes de version que cet ajout permettra de redémarrer silencieusement le processus GPU en cas d’erreur fatale, plutôt que d’entrainer un plantage du navigateur. Sous Windows, le support de l’ancienne API Direct2D est supprimé (il reste disponible dans la version ESR).

Mozilla a également ajouté un système de sauvegarde sous Windows, à destination en particulier des personnes sous Windows 10. En plus du service de synchronisation habituel, Firefox peut maintenant lancer une sauvegarde une fois par jour. Le fichier comprend notamment les favoris et mots de passe, avec possibilité d’y glisser d’autres catégories de données. Il peut aussi être protégé par un mot de passe et est alors chiffré. Ce fichier peut ensuite servir pour une installation neuve du navigateur, y compris sur un autre appareil.

Parmi les autres nouveautés, signalons la disponibilité des Firefox Labs pour l’ensemble des utilisateurs, l’arrivée dans l’Union européenne d’un widget météo pour la page Nouvel onglet, une nouvelle version de la bibliothèque graphique Skia pour améliorer les performances et la compatibilité, ou encore le masquage automatique des propriétés CSS inutilisées dans l’Inspecteur pour réduire l’encombrement.

Enfin, Firefox 146 corrige treize failles de sécurité, dont cinq de gravité élevée.

Infomaniak, nouvel acteur sur la scène des chatbots avec Euria

9 décembre 2025 à 15:17
« L’Europe doit investir »
Infomaniak, nouvel acteur sur la scène des chatbots avec Euria

Infomaniak vient de lancer son IA maison. L’entreprise suisse insiste particulièrement sur la dimension souveraine, sécurisée et autonome de son infrastructure, ainsi que sur la récupération de la chaleur générée pour chauffer des logements à Genève.

Infomaniak se présente comme un nouvel acteur dans la cour rapidement grandissante des fournisseurs de solutions IA. Le produit se nomme Euria, un chabot qui entre en concurrence directe avec ChatGPT, Claude et autre Mistral. Le nom est d’ailleurs l’acronyme de « Éthique, Universelle, Responsable, Indépendante et Autonome ». Après un lancement discret en juin dans kDrive, le chatbot prend ses aises.

Un modèle freemium et une tarification agressive

Le nouveau service est disponible via une page web, ou par l’application mobile sur Android et iOS. Comme souvent avec les chatbots, on trouve une version gratuite pour répondre aux questions, bloquée une fois un palier atteint (ce point n’est pas clairement précisé). Après quoi, il faudra l’une des formules payantes de la kSuite (à partir de 19 euros par an).

On note d’ailleurs qu’Infomaniak n’a pas créé de formule payante spécifique pour son nouveau service. On peut en outre utiliser Euria sans créer de compte, mais le chatbot en réclamera rapidement un après quelques requêtes (trois dans notre cas). On note dans l’ensemble des réponses assez rapides.

Euria est multimodal. Les demandes peuvent être faites textuellement ou par la voix, on peut lui envoyer des documents et autres fichiers, lui demander des transcriptions audio, d’interpréter des tableaux et autres graphiques, de lancer des recherches sur le web ou encore des raisonnements plus complexes. Infomaniak explique que le raisonnement et la recherche web sont utilisés automatiquement en fonction du contexte, mais on peut forcer la recherche en la demandant explicitement au chatbot. Des évolutions sont déjà prévues, dont la génération d’images, des agents et de la mémoire pour le contexte.

Infomaniak promet le respect des données

Côté sécurité et confidentialité, Infomaniak assure que des chiffrements sont appliqués « à toutes les étapes ». Il faut comprendre pendant le transport et au repos, mais Infomaniak peut accéder aux données sur ses serveurs. Point important, l’entreprise ajoute que les données traitées ne sont jamais utilisées « pour entraîner des modèles d’intelligence artificielle, établir des profils ou alimenter des systèmes tiers ».

Un mode éphémère est proposé pour aller plus loin, l’entreprise assurant alors qu’aucune trace n’est laissée et que rien ne peut être récupéré, y compris par Infomaniak. Tous les traitements ont lieu dans le datacenter D4 situé en Suisse, inauguré en début d’année.

Des modèles open source

Infomaniak n’a cependant pas développé de modèle maison. À la place, l’entreprise se sert de plusieurs modèles open source. Si l’annonce n’en parle pas, l’entreprise nous a répondu, par la voix de Thomas Jacobsen, son responsable communication et marketing : elle se sert de Mistral (Small 3.2) pour les images, Qwen3 (Alibaba) pour la partie texte, et de Whisper d’OpenAI pour l’audio.

« Notre stack évolue en permanence afin d’intégrer les meilleurs modèles open source disponibles au moment où ils deviennent pertinents. Nous contribuons et suivons de près l’évolution d’Apertus, et nous étudions déjà la possibilité d’adopter le prochain modèle de Mistral. Dans nos choix technologiques, l’impact écologique joue également un rôle essentiel : nous cherchons systématiquement le meilleur compromis entre performance et consommation de ressources »

Infomaniak en profite pour lancer un cri d’alarme à ce sujet : « À ce jour, aucun des modèles les plus performants n’est européen. Ce constat doit nous interpeller : l’Europe doit investir pour rattraper son retard et bâtir ses propres modèles d’IA souverains, éthiques et neutres en carbone. Plus les utilisateurs choisiront des acteurs locaux, plus nous aurons les moyens de construire cette indépendance technologique », a déclaré Marc Oehler, CEO d’Infomaniak.

Enfin, Infomaniak met en avant l’aspect écologique de son datacenter, utilisé par Euria, dont la chaleur est récupérée et réinjectée dans le réseau de chauffage urbain. L’objectif est d’atteindre la pleine puissance en 2028 et alors de chauffer jusqu’à 6 000 logements à Genève en hiver, de fournir jusqu’à 20 000 douches chaudes par jour et ainsi d’éviter la combustion de 3 600 tonnes de CO₂ en gaz naturel.

IA : « Les développeurs sont toujours condamnés, jusqu’à ce qu’ils ne le soient plus »

9 décembre 2025 à 10:24
« Abstraction, panique, adaptation »
IA : « Les développeurs sont toujours condamnés, jusqu’à ce qu’ils ne le soient plus »

Dans quelle mesure l’IA remet-elle en question le métier de développeur ? Risque-t-elle d’entrainer une dépendance ? Un nivellement des compétences ? Nous avons posé ces questions à Horacio Gonzalez, responsable des relations développeurs chez Clever Cloud.

À la BDX I/O qui s’est tenue au Palais des Congrès de Bordeaux le 7 novembre, Horacio Gonzalez donnait une conférence sur l’avenir du métier de développeur. Il y évoquait l’évolution du métier de développeur et voulait répondre surtout à une question revenant sans cesse : avec le renforcement constant des modèles et l’explosion des agents, les LLM (grands modèles de langage) vont-ils remplacer les développeurs ?

Grimper dans l’abstraction

Avec un certain humour, Horacio Gonzalez s’était amusé à donner une série d’exemples des dernières décennies, en prenant le contrepied des peurs actuelles : « Les développeurs sont toujours condamnés, jusqu’à ce qu’ils ne le soient plus ».

Il citait par exemple le cas de Fortran : « Ce n’est pas un vrai langage ! Tout le monde va pouvoir copier ! Le métier est mort ! à quoi ça sert tout ce qu’on a fait ? ça va casser le travail de réflexion, on va tout écrire à la volée. Le métier de développeur est mort ». Plusieurs autres exemples fusaient, comme celui du Java : « Quel langage stupide, on va être remplacés par des gars qui ont fait un boot camp de trois semaines ». Les approches low code et no code ? « On va être remplacés par des gars qui font des boites et des flèches ».

Dans son exposé, Horacio Gonzalez montrait ainsi que chacune de ces cassures signalait une élévation du niveau d’abstraction dans le métier de développeur. Chaque étape signifiait la fin d’au moins une partie des tâches considérées comme rébarbatives, avant que les nouvelles technologies ne dévoilent leurs propres tâches rébarbatives. Le niveau d’automatisation a ainsi grimpé régulièrement, entrainant systématiquement des craintes sur la mort de la profession.

Selon le responsable de Clever Cloud, cette automatisation a déplacé à chaque fois l’expertise vers des zones que les outils précédents ne pouvaient pas atteindre. Une vision qu’il a depuis développée dans une version plus détaillée de son intervention à travers une série de billets sur son blog (en anglais).

LLM, une étape de plus ?

Le point de vue d’Horacio Gonzalez est que les développeurs se sont adaptés à chaque fois. Chaque nouvelle technologie a entrainé des changements profonds dans son apprentissage, faisant apparaître des besoins pour de nouvelles compétences.

Dans cette optique, l’arrivée des LLM n’est qu’une nouvelle cassure dans les habitudes et une remise en cause des acquis. Les savoirs et savoir-faire évolueraient en conséquence vers de nouveaux horizons : lecture critique du code, l’expression claire des idées pour créer des prompts précis, le repérage des erreurs dans les réponses générées, reconnaitre les situations où l’automatisation n’est pas nécessaire (notamment pour des questions éthiques et de confiance), être assez rigoureux pour savoir remettre en question le résultat, etc.

Selon le responsable, la pratique change avec les questions que l’on se pose. Avec les LLM par exemple, l’abstraction remplace progressivement la question « Comment écrire cette fonction ? » vers une autre interrogation : « Que devrait accomplir cette fonction ? ». Dans une relation de négociation avec la machine, il donne plusieurs analogies : de constructeur à conducteur de travaux, de musicien à chef d’orchestre, voire à compositeur.

Il évoque cependant les dangers de cette approche, qui relèvent pour beaucoup de « l’overtrust », quand on fait trop confiance à l’IA : les LLM, à cause de leur conception, produiront toujours des hallucinations, même si des techniques permettent de les limiter. À force de négocier la machine et d’utiliser des machines toujours plus performantes, le risque n’est plus tant que le LLM écrive du mauvais code, mais que le développeur ne sache plus comprendre la réponse.

L’IA remet également en question l’apprentissage, notamment chez les développeurs juniors. Horacio Gonzalez y voit un rôle renforcé pour les séniors et une nouvelle organisation tripartite entre junior, sénior et IA. L’accent devrait être mis selon lui sur la lecture critique du code, la conception des prompts et le débogage des résultats, dans une sorte de co-création guidée. Il estime d’ailleurs que l’apprentissage du développement par l’IA devient une nouvelle discipline en soi, les LLM ne pouvant pas être considérés comme un simple outil de plus dans la besace des développeurs, mais bien comme un nouveau point de bascule.

C’est cette dimension que nous avons voulu creuser avec Horacio Gonzalez, notamment les dangers pour les développeurs juniors et leur intégration dans les entreprises.

>> Dans quelle mesure l’IA influence-t-elle l’intégration des juniors ?


Il reste 70% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Pub : Meta laissera le choix aux utilisateurs européens de partager moins de données

9 décembre 2025 à 08:22

Le contentieux entre Meta et la Commission européenne va déboucher sur un important changement. À partir du mois prochain (la date exacte reste à définir), Meta laissera le choix aux utilisateurs de l’Union européenne entre partager ses données personnelles pour obtenir des publicités ciblées et en partager moins pour des publicités plus génériques.

Le changement a été annoncé par la Commission européenne ce 8 décembre. Elle « reconnaît l’engagement de Meta à proposer aux utilisateurs de l’UE un choix alternatif de services Facebook et Instagram qui leur proposeraient des publicités moins personnalisées, afin de se conformer à la loi sur les marchés numériques (DMA). C’est la première fois qu’un tel choix est proposé sur les réseaux sociaux de Meta ».

Comme le rappelle la Commission, cette décision fait suite à la condamnation de Meta à une amende de 200 millions d’euros en avril dernier pour avoir enfreint le DMA.

En cause, la formule « Consentez ou payer », qui réclamait de payer pour supprimer les publicités personnalisées. C’était la réponse de Meta à l’obligation de laisser le choix sur le traitement des données personnelles pour personnaliser les publicités. Or, ces formules payantes (et rapidement onéreuses) ne répondaient pas aux exigences européennes, car elles ne garantissaient pas que les données personnelles n’étaient pas traitées, uniquement que les publicités n’apparaissaient plus.

Ces abonnements ne semblent pas avoir été populaires en Europe. En mai, The Verge rapportait ainsi le témoignage de l’un des responsables de Meta, John Hegeman. Selon lui, les internautes européennes n’avaient montré qu’un « très faible intérêt » pour ces formules, seuls 0,07 % des utilisateurs ayant choisi de payer.

La Commission rappelle cependant que l’enquête n’est pas close pour autant. Une fois ce changement en place, « la Commission sollicitera des retours et des preuves de Meta et d’autres parties prenantes concernées sur l’impact et l’adoption de ce nouveau modèle publicitaire ». Et de rappeler que les utilisateurs « doivent avoir un choix complet et efficace, ce qui est leur droit au titre de la DMA ».

☕️ Pub : Meta laissera le choix aux utilisateurs européens de partager moins de données

9 décembre 2025 à 08:22

Le contentieux entre Meta et la Commission européenne va déboucher sur un important changement. À partir du mois prochain (la date exacte reste à définir), Meta laissera le choix aux utilisateurs de l’Union européenne entre partager ses données personnelles pour obtenir des publicités ciblées et en partager moins pour des publicités plus génériques.

Le changement a été annoncé par la Commission européenne ce 8 décembre. Elle « reconnaît l’engagement de Meta à proposer aux utilisateurs de l’UE un choix alternatif de services Facebook et Instagram qui leur proposeraient des publicités moins personnalisées, afin de se conformer à la loi sur les marchés numériques (DMA). C’est la première fois qu’un tel choix est proposé sur les réseaux sociaux de Meta ».

Comme le rappelle la Commission, cette décision fait suite à la condamnation de Meta à une amende de 200 millions d’euros en avril dernier pour avoir enfreint le DMA.

En cause, la formule « Consentez ou payer », qui réclamait de payer pour supprimer les publicités personnalisées. C’était la réponse de Meta à l’obligation de laisser le choix sur le traitement des données personnelles pour personnaliser les publicités. Or, ces formules payantes (et rapidement onéreuses) ne répondaient pas aux exigences européennes, car elles ne garantissaient pas que les données personnelles n’étaient pas traitées, uniquement que les publicités n’apparaissaient plus.

Ces abonnements ne semblent pas avoir été populaires en Europe. En mai, The Verge rapportait ainsi le témoignage de l’un des responsables de Meta, John Hegeman. Selon lui, les internautes européennes n’avaient montré qu’un « très faible intérêt » pour ces formules, seuls 0,07 % des utilisateurs ayant choisi de payer.

La Commission rappelle cependant que l’enquête n’est pas close pour autant. Une fois ce changement en place, « la Commission sollicitera des retours et des preuves de Meta et d’autres parties prenantes concernées sur l’impact et l’adoption de ce nouveau modèle publicitaire ». Et de rappeler que les utilisateurs « doivent avoir un choix complet et efficace, ce qui est leur droit au titre de la DMA ».

Reçu hier — 8 décembre 2025

Derrière la récente panne Cloudflare, une mesure de protection contre la faille React

8 décembre 2025 à 08:13
Derrière la récente panne Cloudflare, une mesure de protection contre la faille React

Deux semaines après une grande panne de plusieurs heures, Cloudflare a de nouveau rencontré un problème de configuration, aboutissant à une coupure de 25 min de ses services. La faute serait relative à un changement intervenu pour combattre l’exploitation de la faille dans React.

Cloudflare a connu une panne majeure le 5 décembre 2025 qui a duré environ 25 minutes, entre 09h47 et 10h12, heure française. L’incident a affecté environ 28 % du trafic HTTP total transitant par son réseau, provoquant des erreurs HTTP 500 pour les clients concernés.

Protection lourde

La faute à un bug logiciel déclenché lors du déploiement d’une protection contre la vulnérabilité CVE-2025-55182 affectant React Server Components. Pour contrer cette faille critique (score CVSS de 10/10), Cloudflare a en effet créé de nouvelles règles dans son WAF (Web Application Firewall) et augmenté la taille du buffer d’analyse des requêtes HTTP de 128 ko à 1 Mo pour protéger ses clients utilisant Next.js.

Durant le déploiement de cette augmentation, un outil interne de test a généré des erreurs. L’équipe a alors décidé de le désactiver via son système de configuration globale, qui propage rapidement (« en quelques secondes ») les changements sur l’ensemble du réseau.

Cette modification a exposé un bug latent dans le proxy FL1 (une ancienne version). Le code Lua contenait une erreur de type « nil pointer » lors du traitement des règles du WAF avec action « execute » lorsque celles-ci étaient désactivées via le killswitch. Seuls les clients utilisant le proxy FL1 avec le Cloudflare Managed Ruleset déployé ont été touchés. Ce type d’erreur n’aurait pas pu se produire avec FL2, le nouveau proxy écrit en Rust, affirme Cloudflare.

Cloudflare se concentre sur les correctifs

Cet incident survient seulement deux semaines après une autre panne majeure le 18 novembre 2025. Cloudflare reconnaît que les modifications de sécurité promises après cette première panne n’ont pas encore été complètement déployées.

L’entreprise s’engage à publier cette semaine un plan détaillé des projets de résilience en cours, incluant des diffusions progressives améliorées avec validation automatique de la santé des services, des capacités de rollback rapide et une logique « fail-open » pour éviter que les erreurs de configuration ne bloquent le trafic. En attendant, tous les changements sur leur réseau sont mis en pause.

Derrière la récente panne Cloudflare, une mesure de protection contre la faille React

8 décembre 2025 à 08:13
Derrière la récente panne Cloudflare, une mesure de protection contre la faille React

Deux semaines après une grande panne de plusieurs heures, Cloudflare a de nouveau rencontré un problème de configuration, aboutissant à une coupure de 25 min de ses services. La faute serait relative à un changement intervenu pour combattre l’exploitation de la faille dans React.

Cloudflare a connu une panne majeure le 5 décembre 2025 qui a duré environ 25 minutes, entre 09h47 et 10h12, heure française. L’incident a affecté environ 28 % du trafic HTTP total transitant par son réseau, provoquant des erreurs HTTP 500 pour les clients concernés.

Protection lourde

La faute à un bug logiciel déclenché lors du déploiement d’une protection contre la vulnérabilité CVE-2025-55182 affectant React Server Components. Pour contrer cette faille critique (score CVSS de 10/10), Cloudflare a en effet créé de nouvelles règles dans son WAF (Web Application Firewall) et augmenté la taille du buffer d’analyse des requêtes HTTP de 128 ko à 1 Mo pour protéger ses clients utilisant Next.js.

Durant le déploiement de cette augmentation, un outil interne de test a généré des erreurs. L’équipe a alors décidé de le désactiver via son système de configuration globale, qui propage rapidement (« en quelques secondes ») les changements sur l’ensemble du réseau.

Cette modification a exposé un bug latent dans le proxy FL1 (une ancienne version). Le code Lua contenait une erreur de type « nil pointer » lors du traitement des règles du WAF avec action « execute » lorsque celles-ci étaient désactivées via le killswitch. Seuls les clients utilisant le proxy FL1 avec le Cloudflare Managed Ruleset déployé ont été touchés. Ce type d’erreur n’aurait pas pu se produire avec FL2, le nouveau proxy écrit en Rust, affirme Cloudflare.

Cloudflare se concentre sur les correctifs

Cet incident survient seulement deux semaines après une autre panne majeure le 18 novembre 2025. Cloudflare reconnaît que les modifications de sécurité promises après cette première panne n’ont pas encore été complètement déployées.

L’entreprise s’engage à publier cette semaine un plan détaillé des projets de résilience en cours, incluant des diffusions progressives améliorées avec validation automatique de la santé des services, des capacités de rollback rapide et une logique « fail-open » pour éviter que les erreurs de configuration ne bloquent le trafic. En attendant, tous les changements sur leur réseau sont mis en pause.

Reçu avant avant-hier

☕️ La distribution GLF OS reçoit une importante mise à jour, baptisée Phoenix

5 décembre 2025 à 16:33

GLF OS, dont nous avions suivi le lancement début septembre, est une distribution Linux française spécialisée dans le jeu vidéo. Alors que les lignes commencent à bouger dans cet univers sous l’impulsion d’un Windows 10 privé de support et d’une couche d’émulation Proton ayant prouvé son efficacité, l’équipe derrière GLF OS vient de lancer une mise à jour importante.

La nouvelle mouture, nommée Phoenix, intègre le noyau Linux 6.17 et met à jour bon nombre de composants internes, dont GNOME 49.1 et KDE Plasma 6.5. Mesa passe en version 25.2.3, amenant le support de FSR4 pour les cartes AMD et Intel, ainsi qu’une meilleure stabilité pour les jeux AAA avec Proton. La distribution intègre également les pilotes NVIDIA 580.105, avec à la clé une meilleure prise en charge des GPU récents et des correctifs pour Wayland.

Plusieurs changements internes importants sont en outre à signaler. Le gestionnaire de démarrage Grub a été remplacé par systemd-boot, « garantissant l’installation de GLF OS sur un maximum de machines ». Un correctif pour l’hibernation de la machine a été implémenté, de même que la compatibilité avec le Stream Deck d’Elgato. Plusieurs extensions GNOME ont été ajoutées, comme Dash to panel, Openbar et Rounded Window Corner. Les miniatures pour les vidéos font également leur apparition dans Nautilus.

Pour les personnes souhaitant installer la version Studio, on note un temps d’installation fortement réduit. Cette variante intègre en effet plusieurs applications spécifiques, dont DaVinci Resolve, qui était compilée au dernier moment. Cette étape a été déplacée côté serveurs, aboutissant à une durée d’installation qui peut être réduite d’un facteur allant jusqu’à 6. Ce fonctionnement concerne d’ailleurs d’autres composants, comme les pilotes NVIDIA, réduisant le temps d’installation de toutes les versions, même si DaVinci était de loin le plus « gros caillou », comme nous le confirme Vinceff, fondateur du projet.

GLF OS est pour rappel développé sur la base de NixOS et est donc un système immuable. Une notification signale aux utilisateurs que des mises à jour sont en attente d’un redémarrage pour être appliquées.

Proxmox lance enfin son Datacenter Manager pour centraliser les opérations de gestion

5 décembre 2025 à 16:20
Là ! Une porte !
Proxmox lance enfin son Datacenter Manager pour centraliser les opérations de gestion

La société autrichienne Proxmox vient de lancer la première version finale de son Datacenter Manager. Le composant était attendu, car il permet de centraliser de nombreuses opérations de gestion et de garder une vue d’ensemble sur les infrastructures Proxmox VE. Dans un contexte tendu par le rachat de VMware par Broadcom, le nouveau produit pourrait offrir une porte de sortie aux entreprises.

Dans son communiqué publié hier soir, Proxmox reconnait volontiers qu’il manquait une brique essentielle dans son offre : « Gérer des centres de données en pleine croissance, répartis sur plusieurs sites ou clusters, présente constamment des défis majeurs pour les entreprises et les équipes. L’absence de supervision globale, des indicateurs fragmentés et la nécessité d’effectuer manuellement des opérations complexes dans divers environnements peuvent rapidement entraîner des inefficacités et une plus grande susceptibilité aux erreurs ».

Le nouveau Datacenter Manager est donc une réponse à cette problématique. Il joue le rôle d’agent de liaison entre les nœuds et clusters individuels et propose une vue unifiée.

Cap sur la centralisation et le pilotage

PDM, pour Proxmox Datacenter Manager, propose ainsi un tableau de bord pour avoir un œil sur les principales informations. Le tableau affiche ainsi l’état de santé des clusters Proxmox VE et instances Backup Server, agrège l’utilisation critique des ressources (CPU, mémoire et entrées/sorties pour le stockage), fournit une vue des KPI (key performance indicators) et indicateurs de performances, avec une promesse de vision immédiate des goulots et autres problèmes. Les données sont mises en cache, pour que le dernier état connu reste accessible.

Ce dashboard général peut être accompagné d’autres tableaux personnalisés, pour cibler une partie spécifique de la structure, ou des indicateurs particuliers. Le contrôle d’accès basé sur les rôles (RBAC) permet d’accorder des accès à ces vues personnalisées sans fournir pour autant un accès aux machines virtuelles ou aux hôtes.

Migration à chaud des machines virtuelles

Autre capacité attendue, la possibilité de migrer à chaud des machines virtuelles d’un cluster à un autre, facilitant notamment les opérations de maintenance. La même interface centrale permet de réaliser d’autres opérations comme le démarrage, l’arrêt ou la configuration des machines virtuelles, conteneurs et autres ressources de stockage. Là encore, le RBAC permet d’octroyer des permissions spécifiques à des utilisateurs et de centraliser les historiques et journaux, par exemple à des fins d’audits.

Et tant qu’à y être, PDM propose d’autres fonctions, notamment un moteur de recherche décrit comme « très puissant » et inspiré de ce que l’on trouve déjà dans Elastic Search et GitHub, surtout pour filtrer et trouver des ressources. Datacenter Manager prend également en charge le réseau défini par logiciel (SDN) et centralise les mises à jour dans un panneau dédié.

Proxmox Datacenter Manager est basé sur la distribution Debian 13.2, avec un noyau Linux 6.17 et le support de ZFS 2.3. L’éditeur ajoute que sa pile logicielle centrale est écrite en Rust et que l’interface (en responsive) fournit « une expérience utilisateur optimale ». Les images ISO sont disponibles depuis le site officiel. Pour rappel, les produits sont gratuits, mais l’entreprise vend des abonnements incluant notamment le support technique.

Une porte de sortie ?

Depuis le rachat de VMware par Broadcom, la situation s’est crispée pour de nombreux clients autour de la virtualisation. Des plaintes ont été déposées et une partie des entreprises cherche à briser sa dépendance aux produits VMware en regardant vers la concurrence. Proxmox fait partie des solutions envisagées, mais l’absence d’une solution pour centraliser la gestion de nombreux nœuds était un frein.

Chez moji (la société ayant racheté Next il y a un peu plus de deux ans), le SRE (Site Reliability Engineer) Alexandre Gliganic nous indique que le produit est testé depuis les premières versions alpha et que les nouvelles fonctions font la différence, notamment le tableau de bord unifié. L’entreprise se sert largement de Proxmox depuis plusieurs années.

« Pour moi, une des fonctionnalités les plus fortes, c’est la migration live inter-clusters. Avant, pour migrer une VM du cluster A vers le cluster B, il fallait passer par une migration à froid via le système de backup Proxmox (PBS), ou utiliser des commandes QEMU (pas très user-friendly pour la plupart des gens). Avec PDM, on ajoute simplement les deux clusters au système, on sélectionne la VM et on clique sur “migrer” vers le cluster cible. Et ça fonctionne directement », s’enthousiasme l’ingénieur.

Il met également en avant les tableaux de bord personnalisés : « On peut créer des dashboards personnalisés en fonction des rôles assignés aux utilisateurs PDM. C’est très pratique. Par exemple, pour que l’équipe support voie les métriques des clusters clients, mais pas celles des clusters internes ».

« Ce qui est intéressant avec PDM, c’est qu’on retrouve enfin une logique de gestion globale qui manquait à l’écosystème Proxmox, un peu comme ce que beaucoup d’équipes infra ont toujours eu avec des plateformes comme vCenter dans le monde VMware/ESXi », ajoute Alexandre Gliganic.

☕️ La distribution GLF OS reçoit une importante mise à jour, baptisée Phoenix

5 décembre 2025 à 16:33

GLF OS, dont nous avions suivi le lancement début septembre, est une distribution Linux française spécialisée dans le jeu vidéo. Alors que les lignes commencent à bouger dans cet univers sous l’impulsion d’un Windows 10 privé de support et d’une couche d’émulation Proton ayant prouvé son efficacité, l’équipe derrière GLF OS vient de lancer une mise à jour importante.

La nouvelle mouture, nommée Phoenix, intègre le noyau Linux 6.17 et met à jour bon nombre de composants internes, dont GNOME 49.1 et KDE Plasma 6.5. Mesa passe en version 25.2.3, amenant le support de FSR4 pour les cartes AMD et Intel, ainsi qu’une meilleure stabilité pour les jeux AAA avec Proton. La distribution intègre également les pilotes NVIDIA 580.105, avec à la clé une meilleure prise en charge des GPU récents et des correctifs pour Wayland.

Plusieurs changements internes importants sont en outre à signaler. Le gestionnaire de démarrage Grub a été remplacé par systemd-boot, « garantissant l’installation de GLF OS sur un maximum de machines ». Un correctif pour l’hibernation de la machine a été implémenté, de même que la compatibilité avec le Stream Deck d’Elgato. Plusieurs extensions GNOME ont été ajoutées, comme Dash to panel, Openbar et Rounded Window Corner. Les miniatures pour les vidéos font également leur apparition dans Nautilus.

Pour les personnes souhaitant installer la version Studio, on note un temps d’installation fortement réduit. Cette variante intègre en effet plusieurs applications spécifiques, dont DaVinci Resolve, qui était compilée au dernier moment. Cette étape a été déplacée côté serveurs, aboutissant à une durée d’installation qui peut être réduite d’un facteur allant jusqu’à 6. Ce fonctionnement concerne d’ailleurs d’autres composants, comme les pilotes NVIDIA, réduisant le temps d’installation de toutes les versions, même si DaVinci était de loin le plus « gros caillou », comme nous le confirme Vinceff, fondateur du projet.

GLF OS est pour rappel développé sur la base de NixOS et est donc un système immuable. Une notification signale aux utilisateurs que des mises à jour sont en attente d’un redémarrage pour être appliquées.

Proxmox lance enfin son Datacenter Manager pour centraliser les opérations de gestion

5 décembre 2025 à 16:20
Là ! Une porte !
Proxmox lance enfin son Datacenter Manager pour centraliser les opérations de gestion

La société autrichienne Proxmox vient de lancer la première version finale de son Datacenter Manager. Le composant était attendu, car il permet de centraliser de nombreuses opérations de gestion et de garder une vue d’ensemble sur les infrastructures Proxmox VE. Dans un contexte tendu par le rachat de VMware par Broadcom, le nouveau produit pourrait offrir une porte de sortie aux entreprises.

Dans son communiqué publié hier soir, Proxmox reconnait volontiers qu’il manquait une brique essentielle dans son offre : « Gérer des centres de données en pleine croissance, répartis sur plusieurs sites ou clusters, présente constamment des défis majeurs pour les entreprises et les équipes. L’absence de supervision globale, des indicateurs fragmentés et la nécessité d’effectuer manuellement des opérations complexes dans divers environnements peuvent rapidement entraîner des inefficacités et une plus grande susceptibilité aux erreurs ».

Le nouveau Datacenter Manager est donc une réponse à cette problématique. Il joue le rôle d’agent de liaison entre les nœuds et clusters individuels et propose une vue unifiée.

Cap sur la centralisation et le pilotage

PDM, pour Proxmox Datacenter Manager, propose ainsi un tableau de bord pour avoir un œil sur les principales informations. Le tableau affiche ainsi l’état de santé des clusters Proxmox VE et instances Backup Server, agrège l’utilisation critique des ressources (CPU, mémoire et entrées/sorties pour le stockage), fournit une vue des KPI (key performance indicators) et indicateurs de performances, avec une promesse de vision immédiate des goulots et autres problèmes. Les données sont mises en cache, pour que le dernier état connu reste accessible.

Ce dashboard général peut être accompagné d’autres tableaux personnalisés, pour cibler une partie spécifique de la structure, ou des indicateurs particuliers. Le contrôle d’accès basé sur les rôles (RBAC) permet d’accorder des accès à ces vues personnalisées sans fournir pour autant un accès aux machines virtuelles ou aux hôtes.

Migration à chaud des machines virtuelles

Autre capacité attendue, la possibilité de migrer à chaud des machines virtuelles d’un cluster à un autre, facilitant notamment les opérations de maintenance. La même interface centrale permet de réaliser d’autres opérations comme le démarrage, l’arrêt ou la configuration des machines virtuelles, conteneurs et autres ressources de stockage. Là encore, le RBAC permet d’octroyer des permissions spécifiques à des utilisateurs et de centraliser les historiques et journaux, par exemple à des fins d’audits.

Et tant qu’à y être, PDM propose d’autres fonctions, notamment un moteur de recherche décrit comme « très puissant » et inspiré de ce que l’on trouve déjà dans Elastic Search et GitHub, surtout pour filtrer et trouver des ressources. Datacenter Manager prend également en charge le réseau défini par logiciel (SDN) et centralise les mises à jour dans un panneau dédié.

Proxmox Datacenter Manager est basé sur la distribution Debian 13.2, avec un noyau Linux 6.17 et le support de ZFS 2.3. L’éditeur ajoute que sa pile logicielle centrale est écrite en Rust et que l’interface (en responsive) fournit « une expérience utilisateur optimale ». Les images ISO sont disponibles depuis le site officiel. Pour rappel, les produits sont gratuits, mais l’entreprise vend des abonnements incluant notamment le support technique.

Une porte de sortie ?

Depuis le rachat de VMware par Broadcom, la situation s’est crispée pour de nombreux clients autour de la virtualisation. Des plaintes ont été déposées et une partie des entreprises cherche à briser sa dépendance aux produits VMware en regardant vers la concurrence. Proxmox fait partie des solutions envisagées, mais l’absence d’une solution pour centraliser la gestion de nombreux nœuds était un frein.

Chez moji (la société ayant racheté Next il y a un peu plus de deux ans), le SRE (Site Reliability Engineer) Alexandre Gliganic nous indique que le produit est testé depuis les premières versions alpha et que les nouvelles fonctions font la différence, notamment le tableau de bord unifié. L’entreprise se sert largement de Proxmox depuis plusieurs années.

« Pour moi, une des fonctionnalités les plus fortes, c’est la migration live inter-clusters. Avant, pour migrer une VM du cluster A vers le cluster B, il fallait passer par une migration à froid via le système de backup Proxmox (PBS), ou utiliser des commandes QEMU (pas très user-friendly pour la plupart des gens). Avec PDM, on ajoute simplement les deux clusters au système, on sélectionne la VM et on clique sur “migrer” vers le cluster cible. Et ça fonctionne directement », s’enthousiasme l’ingénieur.

Il met également en avant les tableaux de bord personnalisés : « On peut créer des dashboards personnalisés en fonction des rôles assignés aux utilisateurs PDM. C’est très pratique. Par exemple, pour que l’équipe support voie les métriques des clusters clients, mais pas celles des clusters internes ».

« Ce qui est intéressant avec PDM, c’est qu’on retrouve enfin une logique de gestion globale qui manquait à l’écosystème Proxmox, un peu comme ce que beaucoup d’équipes infra ont toujours eu avec des plateformes comme vCenter dans le monde VMware/ESXi », ajoute Alexandre Gliganic.

Faille de gravité maximale découverte dans React, des correctifs à installer en urgence

5 décembre 2025 à 13:20
Waf ! Waf !
Faille de gravité maximale découverte dans React, des correctifs à installer en urgence

Un chercheur a découvert dans le composant React Server Components une faille dont le score de gravité CVSS atteint la note maximale de 10. Des correctifs ont été rapidement publiés et il est recommandé de mettre à jour les applications et autres composants concernés le plus rapidement possible.

Dans une note publiée le 3 décembre, la fondation React a averti d’une faille extrêmement critique dans le framework (cadriciel) React Server Components. Estampillée CVE-2025-55182, elle a reçu la plus grande note possible au score CVSS, soit 10.

Dans son billet de blog, la fondation indique que le signalement de la faille a été fait le 29 novembre par le chercheur Lachlan Davidson. Elle réside dans les versions 19.0, 19.1.0, 19.1.1 et 19.2.0 des composants suivants : react-server-dom-webpack, react-server-dom-parcel et react-server-dom-turbopack.

Exploitée, la faille peut permettre l’exécution de commandes arbitraires à distance. Elle a même reçu un nom : React2Shell. Initialement, deux failles avaient été signalées. La seconde, dans Node.js et numérotée CVE-2025-66478, a cependant été rejetée par le NIST américain, car il s’agissait finalement du même mécanisme.

Une grande facilité d’exploitation

Selon la société Wiz qui s’est penchée sur la question, une grosse partie du problème tient à l’exploitation particulièrement simple de cette faille, faisant exploser son score CVSS. Deux composantes sont mises en avant : la faille est exploitable dans toutes les configurations, et il ne suffit que d’une requête HTTP spécialement conçue pour déclencher la suite.

La société explique qu’il s’agit d’un cas de désérialisation logique. Il découle de la manière dont les React Server Components (RSC) gèrent les requêtes. Une personne non authentifiée pourrait ainsi créer une requête HTTP malveillante à n’importe quel point de terminaison Server Function qui, au moment où React s’occupe de la désérialisation, entraine l’exécution d’un code JavaScript arbitraire sur le serveur.

Dans son billet, la fondation React n’en dit pas plus, car elle explique attendre une diffusion plus importante des correctifs avant de donner plus de détails.

Toute bibliothèque utilisant RSC (comme Vite RSC, Parcel RSC, React Router RSC preview, RedwoodJS, ou encore Waku) est concernée par la faille et il faut donc surveiller l’arrivée de mises à jour, déjà publiées dans de nombreux cas. « La vulnérabilité affecte les configurations par défaut du framework, ce qui signifie que les déploiements standards sont immédiatement exploitables sans conditions particulières », indique la société de sécurité Endor Labs.

Que faire ?

L’urgence est d’appliquer les nouvelles versions 19.0.1, 19.1.2 et 19.2.1 des trois composants react-server-dom. Jusqu’à ce qu’ils puissent être déployés, il est conseillé d’appliquer des règles WAF (Web Application Firewall).

Plusieurs entreprises de premier plan ont d’ailleurs réagi à ce sujet. Cloudflare a annoncé dès le 3 décembre avoir mis à jour son WAF pour protéger ses clients. L’éditeur ajoute que même si les nouvelles règles bloquent les éventuelles attaques, il reste recommandé de mettre à jour aussi vite que possible les composants logiciels concernés.

Même son de cloche chez Google pour sa Cloud Armor, qui décrit les nouvelles règles du pare-feu applicatif comme une mesure temporaire d’atténuation. On retrouve les mêmes éléments de langage chez Akamai et AWS.

Faille de gravité maximale découverte dans React, des correctifs à installer en urgence

5 décembre 2025 à 13:20
Waf ! Waf !
Faille de gravité maximale découverte dans React, des correctifs à installer en urgence

Un chercheur a découvert dans le composant React Server Components une faille dont le score de gravité CVSS atteint la note maximale de 10. Des correctifs ont été rapidement publiés et il est recommandé de mettre à jour les applications et autres composants concernés le plus rapidement possible.

Dans une note publiée le 3 décembre, la fondation React a averti d’une faille extrêmement critique dans le framework (cadriciel) React Server Components. Estampillée CVE-2025-55182, elle a reçu la plus grande note possible au score CVSS, soit 10.

Dans son billet de blog, la fondation indique que le signalement de la faille a été fait le 29 novembre par le chercheur Lachlan Davidson. Elle réside dans les versions 19.0, 19.1.0, 19.1.1 et 19.2.0 des composants suivants : react-server-dom-webpack, react-server-dom-parcel et react-server-dom-turbopack.

Exploitée, la faille peut permettre l’exécution de commandes arbitraires à distance. Elle a même reçu un nom : React2Shell. Initialement, deux failles avaient été signalées. La seconde, dans Node.js et numérotée CVE-2025-66478, a cependant été rejetée par le NIST américain, car il s’agissait finalement du même mécanisme.

Une grande facilité d’exploitation

Selon la société Wiz qui s’est penchée sur la question, une grosse partie du problème tient à l’exploitation particulièrement simple de cette faille, faisant exploser son score CVSS. Deux composantes sont mises en avant : la faille est exploitable dans toutes les configurations, et il ne suffit que d’une requête HTTP spécialement conçue pour déclencher la suite.

La société explique qu’il s’agit d’un cas de désérialisation logique. Il découle de la manière dont les React Server Components (RSC) gèrent les requêtes. Une personne non authentifiée pourrait ainsi créer une requête HTTP malveillante à n’importe quel point de terminaison Server Function qui, au moment où React s’occupe de la désérialisation, entraine l’exécution d’un code JavaScript arbitraire sur le serveur.

Dans son billet, la fondation React n’en dit pas plus, car elle explique attendre une diffusion plus importante des correctifs avant de donner plus de détails.

Toute bibliothèque utilisant RSC (comme Vite RSC, Parcel RSC, React Router RSC preview, RedwoodJS, ou encore Waku) est concernée par la faille et il faut donc surveiller l’arrivée de mises à jour, déjà publiées dans de nombreux cas. « La vulnérabilité affecte les configurations par défaut du framework, ce qui signifie que les déploiements standards sont immédiatement exploitables sans conditions particulières », indique la société de sécurité Endor Labs.

Que faire ?

L’urgence est d’appliquer les nouvelles versions 19.0.1, 19.1.2 et 19.2.1 des trois composants react-server-dom. Jusqu’à ce qu’ils puissent être déployés, il est conseillé d’appliquer des règles WAF (Web Application Firewall).

Plusieurs entreprises de premier plan ont d’ailleurs réagi à ce sujet. Cloudflare a annoncé dès le 3 décembre avoir mis à jour son WAF pour protéger ses clients. L’éditeur ajoute que même si les nouvelles règles bloquent les éventuelles attaques, il reste recommandé de mettre à jour aussi vite que possible les composants logiciels concernés.

Même son de cloche chez Google pour sa Cloud Armor, qui décrit les nouvelles règles du pare-feu applicatif comme une mesure temporaire d’atténuation. On retrouve les mêmes éléments de langage chez Akamai et AWS.

Leroy Merlin et Médecin Direct piratés, des données médicales dans la nature

5 décembre 2025 à 09:50
Et ça continue, encore et encore
Leroy Merlin et Médecin Direct piratés, des données médicales dans la nature

Coup sur coup, deux entreprises françaises ont reconnu des fuites de données. La quantité d’informations a priori dans la nature n’est cependant pas la même dans les deux cas, la fuite chez Médecin Direct étant la plus grave.

Alors que France Travail annonçait une nouvelle fuite de données il y a quelques jours, deux nouveaux piratages ont été confirmés en France. Pour le magasin de bricolage, SaxX a averti d’une fuite le 2 décembre. À ce moment, l’enseigne commençait à envoyer des e-mails pour prévenir les clients concernés que leurs données avaient été piratées. Dans la capture du courrier, on pouvait lire que celles-ci comprenaient le nom, le prénom, le numéro de téléphone, l’adresse e-mail, l’adresse postale et la date de naissance. Leroy Merlin précisant également que les coordonnées bancaires et les mots de passe n’étaient pas touchés.

Ce 4 décembre, Leroy Merlin a confirmé l’information au Monde, via l’AFP. « Les clients concernés ont été informés dès que nous avons pris connaissance de l’attaque », a ainsi indiqué l’enseigne, qui a ajouté que des vérifications étaient « en cours » pour mesurer l’étendue du problème. Comme toujours dans ce genre de cas, la CNIL a été prévenue (les entreprises y sont tenues par la loi) et une plainte va être déposée. Il est demandé aux clients, encore une fois, d’être vigilants sur l’usage frauduleux qui pourrait être fait de leurs données.

Médecin Direct : des données médicales dans la nature

Dans le cas de Médecin Direct, une plateforme de téléconsultation, le problème est plus grave. SaxX a publié hier la capture du courrier envoyé aux clients concernés. On peut y lire que des informations ont pu être dérobées. D’abord à caractère personnel, avec globalement les mêmes données que pour Leroy Merlin, auxquelles s’ajoute le numéro de sécurité sociale, s’il a été donné.

Surtout, des données de santé ont pu être exfiltrées : « l’objet de la téléconsultation, les données renseignées dans le questionnaire de pré-consultation, les données échangées par écrit avec le professionnel de santé », précise le courrier. « En revanche, les documents que vous avez pu transmettre ou recevoir à l’occasion de la téléconsultation ne sont pas concernés ». Le pire semble évité, mais les informations décrites peuvent quand même s’avérer très sensibles, selon les cas. On apprend également dans l’e-mail que l’intrusion aurait été détectée le 28 novembre.

À 01net, l’entreprise française a confirmé la fuite, sans développer : « Nos services fonctionnent normalement et nous avons renforcé nos mécanismes de surveillance et de protection. Notre plateforme dispose des niveaux de sécurité conformes au cadre réglementaire strict applicable à la télémédecine. Une enquête sur l’origine de cet incident a été diligentée et nous ne pouvons pas partager davantage de détails à ce stade ».

Dans les deux cas, SaxX affirme que c’est le groupe de pirates Dumpsec qui aurait revendiqué l’attaque. Ils seraient à l’origine d’une grande vague de piratages ces derniers mois, dont les 1 300 mairies que nous évoquions il y a peu.

Les risques sont toujours les mêmes. Ces informations, même quand elles ne sont pas sensibles comme peuvent l’être les données médicales, peuvent être utilisées dans le cadre de campagnes de phishing. Plus les pirates ont d’informations, plus ils peuvent personnaliser leurs tentatives. Avec suffisamment d’informations, le risque peut grimper jusqu’à l’usurpation d’identité.

Leroy Merlin et Médecin Direct piratés, des données médicales dans la nature

5 décembre 2025 à 09:50
Et ça continue, encore et encore
Leroy Merlin et Médecin Direct piratés, des données médicales dans la nature

Coup sur coup, deux entreprises françaises ont reconnu des fuites de données. La quantité d’informations a priori dans la nature n’est cependant pas la même dans les deux cas, la fuite chez Médecin Direct étant la plus grave.

Alors que France Travail annonçait une nouvelle fuite de données il y a quelques jours, deux nouveaux piratages ont été confirmés en France. Pour le magasin de bricolage, SaxX a averti d’une fuite le 2 décembre. À ce moment, l’enseigne commençait à envoyer des e-mails pour prévenir les clients concernés que leurs données avaient été piratées. Dans la capture du courrier, on pouvait lire que celles-ci comprenaient le nom, le prénom, le numéro de téléphone, l’adresse e-mail, l’adresse postale et la date de naissance. Leroy Merlin précisant également que les coordonnées bancaires et les mots de passe n’étaient pas touchés.

Ce 4 décembre, Leroy Merlin a confirmé l’information au Monde, via l’AFP. « Les clients concernés ont été informés dès que nous avons pris connaissance de l’attaque », a ainsi indiqué l’enseigne, qui a ajouté que des vérifications étaient « en cours » pour mesurer l’étendue du problème. Comme toujours dans ce genre de cas, la CNIL a été prévenue (les entreprises y sont tenues par la loi) et une plainte va être déposée. Il est demandé aux clients, encore une fois, d’être vigilants sur l’usage frauduleux qui pourrait être fait de leurs données.

Médecin Direct : des données médicales dans la nature

Dans le cas de Médecin Direct, une plateforme de téléconsultation, le problème est plus grave. SaxX a publié hier la capture du courrier envoyé aux clients concernés. On peut y lire que des informations ont pu être dérobées. D’abord à caractère personnel, avec globalement les mêmes données que pour Leroy Merlin, auxquelles s’ajoute le numéro de sécurité sociale, s’il a été donné.

Surtout, des données de santé ont pu être exfiltrées : « l’objet de la téléconsultation, les données renseignées dans le questionnaire de pré-consultation, les données échangées par écrit avec le professionnel de santé », précise le courrier. « En revanche, les documents que vous avez pu transmettre ou recevoir à l’occasion de la téléconsultation ne sont pas concernés ». Le pire semble évité, mais les informations décrites peuvent quand même s’avérer très sensibles, selon les cas. On apprend également dans l’e-mail que l’intrusion aurait été détectée le 28 novembre.

À 01net, l’entreprise française a confirmé la fuite, sans développer : « Nos services fonctionnent normalement et nous avons renforcé nos mécanismes de surveillance et de protection. Notre plateforme dispose des niveaux de sécurité conformes au cadre réglementaire strict applicable à la télémédecine. Une enquête sur l’origine de cet incident a été diligentée et nous ne pouvons pas partager davantage de détails à ce stade ».

Dans les deux cas, SaxX affirme que c’est le groupe de pirates Dumpsec qui aurait revendiqué l’attaque. Ils seraient à l’origine d’une grande vague de piratages ces derniers mois, dont les 1 300 mairies que nous évoquions il y a peu.

Les risques sont toujours les mêmes. Ces informations, même quand elles ne sont pas sensibles comme peuvent l’être les données médicales, peuvent être utilisées dans le cadre de campagnes de phishing. Plus les pirates ont d’informations, plus ils peuvent personnaliser leurs tentatives. Avec suffisamment d’informations, le risque peut grimper jusqu’à l’usurpation d’identité.

☕️ Pour Linus Torvalds, Musk est « trop stupide pour travailler dans une entreprise tech »

5 décembre 2025 à 08:41

Linus Torvalds est connu pour ses positions franches. On se souvient du doigt d’honneur fait à NVIDIA en 2012, en témoignage de sa colère face au comportement d’une entreprise très peu intéressée par l’open source. Nous avions résumé une partie de ces problèmes dans notre article sur la transition X11/Wayland.

En octobre 2024, Linus Torvalds s’en était pris à Intel et AMD, critiquant leur « matériel bogué » et l’avalanche de modifications logicielles rendues nécessaires par les multiples failles découvertes, bal ouvert début 2018 par Spectre et Meltdown. La même année, il avait d’ailleurs fait une pause pour s’occuper de son caractère, souvent jugé brutal. Mais il lui est arrivé aussi de siffler la fin de la récréation en intervenant dans des débats houleux pour calmer le jeu, notamment dans les discussions vives autour de l’intégration de Rust dans le noyau.

Cette fois, le père du noyau Linux s’en est pris à Elon Musk. Il y a quelques jours, Linus Torvalds apparaissait dans une vidéo du youtubeur Linus Sebastian (chaine Linus Tech Tips), centrée sur le montage d’un nouveau PC pour les besoins du développeur. Les deux Linus discutaient de divers sujets, dont la productivité au travail face à l’IA.

Le youtubeur a ainsi évoqué le cas d’une « grande entreprise » où les développeurs devaient indiquer leur nombre de lignes de code écrites, avec possibilité de licenciement si ce n’était pas assez. Torvalds avait bien sûr un avis très tranché sur la question : « Oh oui, non, tu ne devrais même pas être contrarié là-dessus. C’est juste de l’incompétence. Quiconque pense que c’est un indicateur valable est trop stupide pour travailler dans une entreprise tech ».

Linus Sebastian lui a alors demandé s’il savait de qui il était en train de parler. Devant le « non » de Torvalds, le youtubeur lui a répondu : « Oh. Euh… il a été une figure importante de l’amélioration de l’efficacité du gouvernement américain récemment ». Et Torvalds d’enchainer : « Oh, apparemment j’avais vu juste ».

☕️ Pour Linus Torvalds, Musk est « trop stupide pour travailler dans une entreprise tech »

5 décembre 2025 à 08:41

Linus Torvalds est connu pour ses positions franches. On se souvient du doigt d’honneur fait à NVIDIA en 2012, en témoignage de sa colère face au comportement d’une entreprise très peu intéressée par l’open source. Nous avions résumé une partie de ces problèmes dans notre article sur la transition X11/Wayland.

En octobre 2024, Linus Torvalds s’en était pris à Intel et AMD, critiquant leur « matériel bogué » et l’avalanche de modifications logicielles rendues nécessaires par les multiples failles découvertes, bal ouvert début 2018 par Spectre et Meltdown. La même année, il avait d’ailleurs fait une pause pour s’occuper de son caractère, souvent jugé brutal. Mais il lui est arrivé aussi de siffler la fin de la récréation en intervenant dans des débats houleux pour calmer le jeu, notamment dans les discussions vives autour de l’intégration de Rust dans le noyau.

Cette fois, le père du noyau Linux s’en est pris à Elon Musk. Il y a quelques jours, Linus Torvalds apparaissait dans une vidéo du youtubeur Linus Sebastian (chaine Linus Tech Tips), centrée sur le montage d’un nouveau PC pour les besoins du développeur. Les deux Linus discutaient de divers sujets, dont la productivité au travail face à l’IA.

Le youtubeur a ainsi évoqué le cas d’une « grande entreprise » où les développeurs devaient indiquer leur nombre de lignes de code écrites, avec possibilité de licenciement si ce n’était pas assez. Torvalds avait bien sûr un avis très tranché sur la question : « Oh oui, non, tu ne devrais même pas être contrarié là-dessus. C’est juste de l’incompétence. Quiconque pense que c’est un indicateur valable est trop stupide pour travailler dans une entreprise tech ».

Linus Sebastian lui a alors demandé s’il savait de qui il était en train de parler. Devant le « non » de Torvalds, le youtubeur lui a répondu : « Oh. Euh… il a été une figure importante de l’amélioration de l’efficacité du gouvernement américain récemment ». Et Torvalds d’enchainer : « Oh, apparemment j’avais vu juste ».

☕️ La Russie bloque FaceTime, l’outil d’Apple servirait aux terroristes

4 décembre 2025 à 16:33

La Russie bloque désormais les communications FaceTime sur les appareils Apple, principalement l’iPhone. FaceTime permet pour rappel des communications (réellement) chiffrées de bout en bout entre appareils frappés d’une pomme.

La nouvelle a été retransmise il y a quelques heures par Reuters, qui en a obtenu confirmation par l’agence Roskomnadzor, régulateur des télécommunications en Russie. Contactée par nos confrères, l’agence a répondu : « Selon les agences de maintien de l’ordre, FaceTime est utilisé pour organiser et mener des attaques terroristes dans le pays, recruter des auteurs et commettre des fraudes et d’autres crimes contre des citoyens russes ». Roskomnadzor n’a pas élaboré.

Toujours selon Reuters, les symptômes ont commencé aujourd’hui même. Bien qu’Apple ne vende plus ses produits depuis l’attaque contre l’Ukraine (la page officielle russe renvoie directement au support technique), de nombreux iPhone restent en circulation. Mais depuis peu, les appels FaceTime échouent, l’application indiquant « Utilisateur indisponible ». Selon un témoignage, la demande d’appel est bien émise, mais le contact ne s’établit pas une fois la communication acceptée.

Le blocage de FaceTime n’est que la dernière décision en date de la Russie contre les technologies occidentales. Au cours des trois dernières années, de nombreux services ont été concernés, avec par exemple Instagram dès mars 2022. En aout, on apprenait que l’agence Roskomnadzor avait annoncé le blocage partiel des appels sur WhatsApp et Telegram, et que le magasin d’applications RuStore devenait obligatoire sur les nouveaux smartphones.

RuStore a été développé par VK, l’entreprise russe possédant le réseau social du même nom, ce dernier ayant été créé par Pavel Durov, également fondateur de Telegram. La même entreprise a développé la messagerie Max, que le gouvernement russe met largement en avant désormais. Selon Reuters, de nombreuses critiques se sont élevées pour dénoncer un outil de surveillance des citoyens russes, accusations réfutées par la presse d’État.

❌