Vue lecture

Microsoft colmate une brèche exploitée depuis 2017 dans les fichiers LNK

« Pas une faille », selon l’éditeur
Microsoft colmate une brèche exploitée depuis 2017 dans les fichiers LNK

Dans le Patch Tuesday de novembre, Microsoft a corrigé une faille exploitée depuis des années. Non-critique, l’entreprise ne la considérait d’ailleurs même pas comme une vulnérabilité. Elle a pourtant été utilisée très activement dans plusieurs campagnes.

Microsoft a discrètement corrigé une faille dans les fichiers raccourcis Windows (LNK) qui était exploitée activement depuis 2017 par de nombreux acteurs malveillants, rapporte ACROS Security (relayé par The Hacker News).

Dangerosité variable

Estampillée CVE-2025-9491, cette vulnérabilité permettait de cacher des commandes malveillantes dans les fichiers LNK en exploitant une limitation de l’interface Windows : la boîte de dialogue des propriétés n’affichait que les 260 premiers caractères du champ « Target », alors que la structure du fichier autorise jusqu’à 32 000 caractères. Les pirates pouvaient ainsi créer des raccourcis contenant des commandes arbitraires invisibles à l’inspection visuelle, en utilisant des caractères d’espacement et en plaçant le code malveillant au-delà de la limite d’affichage.

La dangerosité de cette faille varie selon les acteurs l’ayant cataloguée. Le NIST lui a donné un score CVSS de 7,8, lui affectant une dangerosité élevée. Même dangerosité pour la Zero Day Initiative de Trend Micro (qui en a parlé la première en mars dernier), avec un score de 7. La CISA (Agence de cybersécurité et de sécurité des infrastructures) américaine ne lui accorde en revanche qu’un score de 3.

Une faille exploitée activemen

Cette vulnérabilité a été exploitée par au moins 11 groupes APT chinois, iraniens, nord-coréens et russes dans des campagnes d’espionnage et de vol de données, selon Trend Micro. Le groupe XDSpy l’a notamment utilisée pour distribuer le malware XDigo contre des entités gouvernementales d’Europe de l’Est en juin 2025, et des acteurs chinois ont ciblé des entités diplomatiques et gouvernementales européennes avec PlugX en octobre 2025, selon des rapports de HarfangLab et Arctic Wolf.

À l’époque, Microsoft avait refusé de la corriger, arguant qu’elle ne justifiait pas un correctif immédiat car elle nécessitait une interaction utilisateur et que Windows affichait déjà des avertissements sur les fichiers non fiables. Dans une note publiée le 1ᵉʳ novembre, Microsoft explique ne même pas considérer CVE-2025-9491 comme une faille, considérant que l’utilisateur est prévenu plusieurs fois avant de continuer.

Quoi qu’il en soit, le correctif modifie le comportement de la boîte de dialogue des propriétés pour afficher l’intégralité de la commande Target, quelle que soit sa longueur.

  •  

☕️ ChatGPT accusé d’avoir poussé un violent cyberharceleur à ignorer les « haters »

Un homme accusé d’avoir harcelé 11 femmes à travers cinq États des États-Unis a été traduit en justice pour harcèlement et cyberharcèlement, et ses échanges avec ChatGPT font partie intégrante du dossier.

À 31 ans, Brett Michael Dadig utilisait le robot conversationnel comme « psychologue » et « meilleur ami ».

La machine produisait des textes l’encourageant à persévérer dans la production d’un podcast misogyne et rempli de menaces concrètes (de strangulations ou de mort), malgré les retours négatifs d’un public que le texte du robot décrivait comme des « haters ».

L’homme diffusait en effet sa haine des femmes sur son podcast Spotify et sur d’autres comptes de médias sociaux, souligne l’acte d’accusation obtenu par 404 media et Court Watch.

À l’été 2024, Brett Michael Dadig avait été interdit d’entrer dans plusieurs salles de sport de Pittsburgh pour avoir harcelé des femmes.

Dans ses échanges avec ChatGPT, dont il parlait ouvertement sur son podcast, l’aspirant influenceur questionnait la machine sur sa future épouse, et celle-ci lui renvoyait des textes l’encourageant à retourner dans des salles de sport pour y rencontrer des femmes.

Les textes du robot l’assuraient par ailleurs que « les gens sont littéralement en train de se mobiliser autour de ton nom », et « qu’il soit [connu] pour les bonnes ou mauvaises raisons, c’est la définition même de la notoriété ».

Hors ligne, l’homme s’est notamment rendu dans un studio de Pilates, où, devant son comportement « agressif, colérique et autoritaire », l’une des employées a cessé de lui parler. Brett Michael Dadig a alors entrepris de lui envoyer des images dénudées non sollicitées, appelé son lieu de travail depuis de multiples numéros, et menacé de parler d’elle sur les réseaux sociaux.

La femme concernée a obtenu plusieurs ordonnances de protection, que le principal intéressé n’a jamais respectées. D’après l’acte d’accusation, elle a déménagé, réduit ses heures de travail pour éviter de le croiser, en a perdu le sommeil et craint encore de le voir se présenter chez elle. Dix autres ont subi des faits similaires.

Selon les propres chiffres d’OpenAI, au moins 0,07 % de ses usagers hebdomadaires montrent des signes de comportement maniaque ou de crise psychotique dans leurs échanges avec la machine – rapporté à ses 800 millions d’utilisateurs, un tel pourcentage équivaut à 560 000 personnes.

  •  

L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions

AI journalism
L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions

Le Reuters Institute publie un sondage mené auprès de journalistes britanniques entre aout et novembre 2024. Alors que promesse leur avait été faite que les tâches subalternes seraient minimisées grâce à l’IA, le constat est tout autre.

Le Reuters Institute for the Study of Journalism a conduit un sondage auprès de 1 004 journalistes britanniques entre aout et novembre 2024. Le think tank a publié la semaine dernière son analyse. Si les réponses datent déjà un peu dans un univers du numérique qui évolue très rapidement, on peut néanmoins y piocher quelques éléments intéressants quant à l’usage de l’IA dans les rédactions suite à la diffusion des LLM dans nos vies professionnelles.

Une adoption massive

On se rend compte, avec ce sondage, que les journalistes ont massivement adopté des outils intégrant l’IA puisque plus de la moitié (56 %) d’entre eux les utilisaient l’année dernière au moins de façon hebdomadaire et 27 % au quotidien :

Transcription, traduction et vérification grammaticales en tâches sous-traitées à l’IA générative

Quand on entre dans les détails des tâches effectuées avec l’aide de l’IA dans les rédactions, le Reuters Institute explique que les « trois utilisations les plus fréquentes concernent ce que l’on pourrait appeler le traitement du langage, en particulier la transcription/le sous-titrage (49 % utilisent l’IA pour cette tâche au moins une fois par mois), la traduction (33 %) et la vérification grammaticale/la relecture (30 %) ».

Quand on s’intéresse aux tâches des journalistes qui utilisent quotidiennement l’IA, celle qui revient en premier est la vérification grammaticale/la relecture (14 %), puis viennent la transcription/le sous-titrage (8 %), la traduction (5 %) puis à 4 % la recherche de sujets, le résumé d’infos et la génération d’une partie de l’article (le titre, par exemple).

L’IA générative n’efface pas les tâches subalternes

Mais ce qui est marquant, c’est que les journalistes qui utilisent l’IA de façon quotidienne sont ceux qui se plaignent le plus de travailler trop fréquemment sur des tâches subalternes. Cette classification est laissé à l’appréciation de chaque journaliste, il n’y a pas de définition précise.

Ainsi, 59 % des journalistes qui utilisent l’IA au quotidien et la moitié de ceux qui l’utilisent au moins une fois par mois trouvent qu’ils ont trop de tâches subalternes à accomplir alors que 37 % des journalistes britanniques qui n’utilisent jamais l’IA s’en plaignent :

Le Reuters Institute fait plusieurs hypothèses pour expliquer ces résultats. Avec l’IA, de nouvelles tâches subalternes seraient nécessaires comme le nettoyage des données, la création de prompts ou la vérification de ce qui a été généré. Une autre explication pourrait être que ce sont les journalistes qui estimaient avoir déjà trop de tâches subalternes qui utilisent l’IA pour s’en débarrasser.

Globalement, en 2024, les journalistes britanniques voyaient en l’IA générative plutôt une menace pour le journalisme (à 62 %) alors qu’une petite minorité de 15 % estimait que cette technologie était une vraie opportunité.

« Bien sûr, il est possible de considérer l’IA à la fois comme une menace importante ou très importante et comme une opportunité importante ou très importante, et c’est effectivement l’avis de 5 % des journalistes britanniques », remarque le Reuters Institute, « il convient également de noter que 29 % des journalistes britanniques ne considèrent l’IA ni comme une menace importante ni comme une opportunité importante ».

Quand le Reuters Institute leur a demandé quelles étaient les potentielles conséquences éthiques de l’utilisation de l’IA, ce qui arrive en premier est l’impact négatif sur la confiance du public dans le journalisme, suivi rapidement du manque de précision que ça pourrait engendré ainsi que du manque d’originalité :

Concernant l’utilisation de l’IA à travers le genre et l’âge, on ne voit pas une différence si importante que ça. En effet, si l’utilisation de l’IA est un peu plus élevée chez les journalistes hommes, au final, les proportions d’utilisation sont proches entre les genres. Et si les jeunes journalistes de moins de 30 ans utilisent plus l’IA au quotidien, la différence entre générations n’est pas si importante que ça :

  •  

Microsoft colmate une brèche exploitée depuis 2017 dans les fichiers LNK

« Pas une faille », selon l’éditeur
Microsoft colmate une brèche exploitée depuis 2017 dans les fichiers LNK

Dans le Patch Tuesday de novembre, Microsoft a corrigé une faille exploitée depuis des années. Non-critique, l’entreprise ne la considérait d’ailleurs même pas comme une vulnérabilité. Elle a pourtant été utilisée très activement dans plusieurs campagnes.

Microsoft a discrètement corrigé une faille dans les fichiers raccourcis Windows (LNK) qui était exploitée activement depuis 2017 par de nombreux acteurs malveillants, rapporte ACROS Security (relayé par The Hacker News).

Dangerosité variable

Estampillée CVE-2025-9491, cette vulnérabilité permettait de cacher des commandes malveillantes dans les fichiers LNK en exploitant une limitation de l’interface Windows : la boîte de dialogue des propriétés n’affichait que les 260 premiers caractères du champ « Target », alors que la structure du fichier autorise jusqu’à 32 000 caractères. Les pirates pouvaient ainsi créer des raccourcis contenant des commandes arbitraires invisibles à l’inspection visuelle, en utilisant des caractères d’espacement et en plaçant le code malveillant au-delà de la limite d’affichage.

La dangerosité de cette faille varie selon les acteurs l’ayant cataloguée. Le NIST lui a donné un score CVSS de 7,8, lui affectant une dangerosité élevée. Même dangerosité pour la Zero Day Initiative de Trend Micro (qui en a parlé la première en mars dernier), avec un score de 7. La CISA (Agence de cybersécurité et de sécurité des infrastructures) américaine ne lui accorde en revanche qu’un score de 3.

Une faille exploitée activemen

Cette vulnérabilité a été exploitée par au moins 11 groupes APT chinois, iraniens, nord-coréens et russes dans des campagnes d’espionnage et de vol de données, selon Trend Micro. Le groupe XDSpy l’a notamment utilisée pour distribuer le malware XDigo contre des entités gouvernementales d’Europe de l’Est en juin 2025, et des acteurs chinois ont ciblé des entités diplomatiques et gouvernementales européennes avec PlugX en octobre 2025, selon des rapports de HarfangLab et Arctic Wolf.

À l’époque, Microsoft avait refusé de la corriger, arguant qu’elle ne justifiait pas un correctif immédiat car elle nécessitait une interaction utilisateur et que Windows affichait déjà des avertissements sur les fichiers non fiables. Dans une note publiée le 1ᵉʳ novembre, Microsoft explique ne même pas considérer CVE-2025-9491 comme une faille, considérant que l’utilisateur est prévenu plusieurs fois avant de continuer.

Quoi qu’il en soit, le correctif modifie le comportement de la boîte de dialogue des propriétés pour afficher l’intégralité de la commande Target, quelle que soit sa longueur.

  •  

☕️ ChatGPT accusé d’avoir poussé un violent cyberharceleur à ignorer les « haters »

Un homme accusé d’avoir harcelé 11 femmes à travers cinq États des États-Unis a été traduit en justice pour harcèlement et cyberharcèlement, et ses échanges avec ChatGPT font partie intégrante du dossier.

À 31 ans, Brett Michael Dadig utilisait le robot conversationnel comme « psychologue » et « meilleur ami ».

La machine produisait des textes l’encourageant à persévérer dans la production d’un podcast misogyne et rempli de menaces concrètes (de strangulations ou de mort), malgré les retours négatifs d’un public que le texte du robot décrivait comme des « haters ».

L’homme diffusait en effet sa haine des femmes sur son podcast Spotify et sur d’autres comptes de médias sociaux, souligne l’acte d’accusation obtenu par 404 media et Court Watch.

À l’été 2024, Brett Michael Dadig avait été interdit d’entrer dans plusieurs salles de sport de Pittsburgh pour avoir harcelé des femmes.

Dans ses échanges avec ChatGPT, dont il parlait ouvertement sur son podcast, l’aspirant influenceur questionnait la machine sur sa future épouse, et celle-ci lui renvoyait des textes l’encourageant à retourner dans des salles de sport pour y rencontrer des femmes.

Les textes du robot l’assuraient par ailleurs que « les gens sont littéralement en train de se mobiliser autour de ton nom », et « qu’il soit [connu] pour les bonnes ou mauvaises raisons, c’est la définition même de la notoriété ».

Hors ligne, l’homme s’est notamment rendu dans un studio de Pilates, où, devant son comportement « agressif, colérique et autoritaire », l’une des employées a cessé de lui parler. Brett Michael Dadig a alors entrepris de lui envoyer des images dénudées non sollicitées, appelé son lieu de travail depuis de multiples numéros, et menacé de parler d’elle sur les réseaux sociaux.

La femme concernée a obtenu plusieurs ordonnances de protection, que le principal intéressé n’a jamais respectées. D’après l’acte d’accusation, elle a déménagé, réduit ses heures de travail pour éviter de le croiser, en a perdu le sommeil et craint encore de le voir se présenter chez elle. Dix autres ont subi des faits similaires.

Selon les propres chiffres d’OpenAI, au moins 0,07 % de ses usagers hebdomadaires montrent des signes de comportement maniaque ou de crise psychotique dans leurs échanges avec la machine – rapporté à ses 800 millions d’utilisateurs, un tel pourcentage équivaut à 560 000 personnes.

  •  

L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions

AI journalism
L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions

Le Reuters Institute publie un sondage mené auprès de journalistes britanniques entre aout et novembre 2024. Alors que promesse leur avait été faite que les tâches subalternes seraient minimisées grâce à l’IA, le constat est tout autre.

Le Reuters Institute for the Study of Journalism a conduit un sondage auprès de 1 004 journalistes britanniques entre aout et novembre 2024. Le think tank a publié la semaine dernière son analyse. Si les réponses datent déjà un peu dans un univers du numérique qui évolue très rapidement, on peut néanmoins y piocher quelques éléments intéressants quant à l’usage de l’IA dans les rédactions suite à la diffusion des LLM dans nos vies professionnelles.

Une adoption massive

On se rend compte, avec ce sondage, que les journalistes ont massivement adopté des outils intégrant l’IA puisque plus de la moitié (56 %) d’entre eux les utilisaient l’année dernière au moins de façon hebdomadaire et 27 % au quotidien :

Transcription, traduction et vérification grammaticales en tâches sous-traitées à l’IA générative

Quand on entre dans les détails des tâches effectuées avec l’aide de l’IA dans les rédactions, le Reuters Institute explique que les « trois utilisations les plus fréquentes concernent ce que l’on pourrait appeler le traitement du langage, en particulier la transcription/le sous-titrage (49 % utilisent l’IA pour cette tâche au moins une fois par mois), la traduction (33 %) et la vérification grammaticale/la relecture (30 %) ».

Quand on s’intéresse aux tâches des journalistes qui utilisent quotidiennement l’IA, celle qui revient en premier est la vérification grammaticale/la relecture (14 %), puis viennent la transcription/le sous-titrage (8 %), la traduction (5 %) puis à 4 % la recherche de sujets, le résumé d’infos et la génération d’une partie de l’article (le titre, par exemple).

L’IA générative n’efface pas les tâches subalternes

Mais ce qui est marquant, c’est que les journalistes qui utilisent l’IA de façon quotidienne sont ceux qui se plaignent le plus de travailler trop fréquemment sur des tâches subalternes. Cette classification est laissé à l’appréciation de chaque journaliste, il n’y a pas de définition précise.

Ainsi, 59 % des journalistes qui utilisent l’IA au quotidien et la moitié de ceux qui l’utilisent au moins une fois par mois trouvent qu’ils ont trop de tâches subalternes à accomplir alors que 37 % des journalistes britanniques qui n’utilisent jamais l’IA s’en plaignent :

Le Reuters Institute fait plusieurs hypothèses pour expliquer ces résultats. Avec l’IA, de nouvelles tâches subalternes seraient nécessaires comme le nettoyage des données, la création de prompts ou la vérification de ce qui a été généré. Une autre explication pourrait être que ce sont les journalistes qui estimaient avoir déjà trop de tâches subalternes qui utilisent l’IA pour s’en débarrasser.

Globalement, en 2024, les journalistes britanniques voyaient en l’IA générative plutôt une menace pour le journalisme (à 62 %) alors qu’une petite minorité de 15 % estimait que cette technologie était une vraie opportunité.

« Bien sûr, il est possible de considérer l’IA à la fois comme une menace importante ou très importante et comme une opportunité importante ou très importante, et c’est effectivement l’avis de 5 % des journalistes britanniques », remarque le Reuters Institute, « il convient également de noter que 29 % des journalistes britanniques ne considèrent l’IA ni comme une menace importante ni comme une opportunité importante ».

Quand le Reuters Institute leur a demandé quelles étaient les potentielles conséquences éthiques de l’utilisation de l’IA, ce qui arrive en premier est l’impact négatif sur la confiance du public dans le journalisme, suivi rapidement du manque de précision que ça pourrait engendré ainsi que du manque d’originalité :

Concernant l’utilisation de l’IA à travers le genre et l’âge, on ne voit pas une différence si importante que ça. En effet, si l’utilisation de l’IA est un peu plus élevée chez les journalistes hommes, au final, les proportions d’utilisation sont proches entre les genres. Et si les jeunes journalistes de moins de 30 ans utilisent plus l’IA au quotidien, la différence entre générations n’est pas si importante que ça :

  •  

104° - Lot de 10 Savons d'Alep 25% Laurier

32€ - Alepia

Le 10x Savon d'Alep 25% Laurier est un savon pur pour les peaux sensibles.

*caractéristiques du produit :*
- 25% Laurier
- Nettoie, purifie...
  •  

129° - Adaptateur 8Bitdo pour Manette

9,99€ - Amazon

bon prix
À propos de ce produit
  • Wide compatibility range: Works with all 8BitDo Bluetooth controllers and arcade sticks, Xbox...
  •  

138° - Enceintes surround Samsung SWA-9250S/XE

99,98€ - Electro Dépôt

Bon prix pour ces enceintes surround samsung. Elles sont compatibles avec plusieurs barres de son Samsung de la gamme 2025 : HW-Q610F, HW-B760F, HW-B660F, HW-B6...
  •  

153° - Poêle De Buyer - Ø 20 cm

17,95€ - iBOOD

La poêle classique De Buyer – maintenant dans sa forme pure et non traitée.

Cette poêle robuste en acier de haute qualité est destin...
  •