Vue normale

Reçu aujourd’hui — 18 novembre 2025

☕️ [MàJ] La panne Cloudflare touchant de nombreux services comme X ou ChatGPT semble résolue

18 novembre 2025 à 15:02
[MàJ] La panne Cloudflare touchant de nombreux services comme X ou ChatGPT semble résolue

Mise à jour 18 novembre, 15h53 : « Une correction a été mise en œuvre et nous pensons que l’incident est désormais résolu », explique Cloudflare dans un message publié à 15h42 heure de Paris. « Nous continuons à surveiller les erreurs afin de nous assurer que tous les services fonctionnent à nouveau normalement », ajoute l’entreprise. L’incident aura duré environ 3 h.


Brief originel publié le 18 novembre à 14h19 :

Cloudflare est en carafe et, par cascade, de nombreux sites qui reposent sur ses services sont difficilement, voire pas du tout, accessibles. Ainsi les utilisateurs de X, Spotify, Canva, Downdetector.fr ou encore OpenAI peuvent rencontrer des difficultés à accéder à ces sites internet.

Downdetector, qui sert habituellement à vérifier si un site est hors ligne chez les autres, illustre ironiquement le phénomène – capture d’écran Next

« Le réseau mondial Cloudflare rencontre des problèmes » a annoncé Cloudflare sur son site d’information des pannes à 12h48, heure de Paris. Depuis l’entreprise a ajouté régulièrement des messages lapidaires affirmant qu’elle continue de creuser pour connaître la cause du problème.

Sur les sites concernés, le message d’erreur affiché évoque « challenges », l’appellation qui regroupe les services dédiés au contrôle de la légitimité de la requête de l’internaute, dont la case à cocher qui fait office de Captcha chez Cloudflare.

À 14h09 heure de Paris, l’entreprise a expliqué avoir identifié une modalité de résolution. « Nous avons apporté des modifications qui ont permis à Cloudflare Access et WARP de fonctionner à nouveau normalement. Les niveaux d’erreur pour les utilisateurs d’Access et de WARP sont revenus aux taux enregistrés avant l’incident », a-t-elle indiqué ensuite.

Cryptomonnaies : Binance et OKX utilisées pour blanchir des centaines de millions d’euros

18 novembre 2025 à 13:16
Laverie numérique
Cryptomonnaies : Binance et OKX utilisées pour blanchir des centaines de millions d’euros

Les deux plateformes d’échange de cryptomonnaies Binance et OKX sont massivement utilisées pour le blanchiment d’argent. Une enquête du Consortium international des journalistes ICIJ montre que le conglomérat cambodgien Huione, accusé d’être au centre du blanchiment d’argent via les cryptomonnaies, aurait transféré au moins 545 millions d’euros en utilisant ces plateformes.

« La lessiveuse de cryptos » (en anglais, « The Coin Laundry »), c’est ainsi que le Consortium international des journalistes ICIJ a appelé son enquête montrant l’ampleur du blanchiment d’argent sale sur certaines plateformes de cryptomonnaies comme Binance et OKX.

545 millions d’euros de blanchiment d’un conglomérat cambodgien en un an

Ce consortium, qui rassemble 38 médias dont Le Monde et Radio France, a pu tracer des flux financiers provenant du conglomérat cambodgien Huione sur ces deux plateformes. Ils en concluent que cette entreprise, qui est « utilisée par des gangs criminels chinois pour blanchir les profits issus de la traite d’êtres humains et d’opérations frauduleuses à l’échelle industrielle », a transféré à Binance 408 millions de dollars (351 millions d’euros) entre juillet 2024 et juillet 2025, et 226 millions de dollars (195 millions d’euros) à OKX entre fin février 2025 et la fin juillet 2025.

Le mois dernier, le Réseau de lutte contre les crimes financiers (FinCEN) du département du Trésor américain ciblait ce même conglomérat cambodgien, l’accusant d’avoir blanchi « au moins 4 milliards de dollars de produits illicites entre août 2021 et janvier 2025 ». Le FinCEN annonçait avoir exclu Huione du système financier états-unien en parallèle de la saisie de 127 271 bitcoins (d’une valeur actuelle d’environ 15 milliards de dollars), dans le cadre de l’accusation de fraudes électroniques et de blanchiment d’argent de Chen Zhi, le fondateur et président de Prince Holding Group, un autre conglomérat cambodgien.

D’autres réseaux illégaux continuent d’utiliser ces plateformes

ICIJ a aussi découvert des transactions d’autres organisations illégales à travers le monde. Ainsi, le cartel de drogue mexicain Sinaloa a reçu plus de 700 000 dollars via des comptes de la plateforme Coinbase. Le consortium liste aussi un réseau de trafiquants chinois de fentanyl ou encore un intermédiaire russe chargé de blanchir de l’argent pour le programme d’armement nord-coréen en utilisant un compte sur la plateforme HTX.

Dans son enquête, l’ICIJ se demande si « les plateformes d’échange en font assez pour mettre fin aux flux illicites, que ce soit en gelant les fonds, en fermant les comptes ou en surveillant attentivement les transactions suspectes ». En novembre 2023, Binance et son ancien CEO, Changpeng Zhao « CZ », avaient plaidé coupable de violation des lois états-uniennes contre le blanchiment.

Binance en porte-à-faux avec ses engagements de 2023, CZ amnistié

L’entreprise s’était engagée à se plier aux législations en vigueur. Elle avait pu continuer ses activités même si le département de Justice américain relevait que l’entreprise avait volontairement favorisé ces transactions. Celui-ci notait par exemple, comme le révélait le Wall Street Journal, qu’un des employés chargé de la conformité de l’entreprise avait écrit dans le chat interne : « Nous avons besoin d’une bannière disant : « Le blanchiment d’argent sale est trop difficile ces jours-ci ? Venez chez Binance, nous avons des gâteaux pour vous » ».

Donald Trump a récemment amnistié CZ. À cette occasion, la porte-parole de la Maison-Blanche, Karoline Leavitt, a déclaré que les poursuites menées par le prédécesseur de Donald Trump « ont gravement terni la réputation des États-Unis comme leader en matière de technologie et d’innovation. La guerre du gouvernement Biden contre les cryptos est finie ».

« S’ils excluent les acteurs criminels de leur plateforme, ils perdent alors une importante source de revenus, ce qui les incite à laisser cette activité se poursuivre », explique à l’ICIJ John Griffin, enseignant-chercheur à l’université du Texas à Austin.

Cette enquête montre que, contrairement aux engagements pris en 2023 par Binance, l’entreprise et le milieu des cryptomonnaies n’ont pas fait le ménage. Si on pouvait le suspecter, comme l’exprime le CTO de l’ICIJ, Pierre Romera Zhang, « sans données, sans fact-checking, sans transparence, il n’y a ni débat public éclairé ni pression sur les plateformes, les législateurs et les autorités ».

☕️ [MàJ] La panne Cloudflare touchant de nombreux services comme X ou ChatGPT semble résolue

18 novembre 2025 à 15:02
[MàJ] La panne Cloudflare touchant de nombreux services comme X ou ChatGPT semble résolue

Mise à jour 18 novembre, 15h53 : « Une correction a été mise en œuvre et nous pensons que l’incident est désormais résolu », explique Cloudflare dans un message publié à 15h42 heure de Paris. « Nous continuons à surveiller les erreurs afin de nous assurer que tous les services fonctionnent à nouveau normalement », ajoute l’entreprise. L’incident aura duré environ 3 h.


Brief originel publié le 18 novembre à 14h19 :

Cloudflare est en carafe et, par cascade, de nombreux sites qui reposent sur ses services sont difficilement, voire pas du tout, accessibles. Ainsi les utilisateurs de X, Spotify, Canva, Downdetector.fr ou encore OpenAI peuvent rencontrer des difficultés à accéder à ces sites internet.

Downdetector, qui sert habituellement à vérifier si un site est hors ligne chez les autres, illustre ironiquement le phénomène – capture d’écran Next

« Le réseau mondial Cloudflare rencontre des problèmes » a annoncé Cloudflare sur son site d’information des pannes à 12h48, heure de Paris. Depuis l’entreprise a ajouté régulièrement des messages lapidaires affirmant qu’elle continue de creuser pour connaître la cause du problème.

Sur les sites concernés, le message d’erreur affiché évoque « challenges », l’appellation qui regroupe les services dédiés au contrôle de la légitimité de la requête de l’internaute, dont la case à cocher qui fait office de Captcha chez Cloudflare.

À 14h09 heure de Paris, l’entreprise a expliqué avoir identifié une modalité de résolution. « Nous avons apporté des modifications qui ont permis à Cloudflare Access et WARP de fonctionner à nouveau normalement. Les niveaux d’erreur pour les utilisateurs d’Access et de WARP sont revenus aux taux enregistrés avant l’incident », a-t-elle indiqué ensuite.

Cryptomonnaies : Binance et OKX utilisées pour blanchir des centaines de millions d’euros

18 novembre 2025 à 13:16
Laverie numérique
Cryptomonnaies : Binance et OKX utilisées pour blanchir des centaines de millions d’euros

Les deux plateformes d’échange de cryptomonnaies Binance et OKX sont massivement utilisées pour le blanchiment d’argent. Une enquête du Consortium international des journalistes ICIJ montre que le conglomérat cambodgien Huione, accusé d’être au centre du blanchiment d’argent via les cryptomonnaies, aurait transféré au moins 545 millions d’euros en utilisant ces plateformes.

« La lessiveuse de cryptos » (en anglais, « The Coin Laundry »), c’est ainsi que le Consortium international des journalistes ICIJ a appelé son enquête montrant l’ampleur du blanchiment d’argent sale sur certaines plateformes de cryptomonnaies comme Binance et OKX.

545 millions d’euros de blanchiment d’un conglomérat cambodgien en un an

Ce consortium, qui rassemble 38 médias dont Le Monde et Radio France, a pu tracer des flux financiers provenant du conglomérat cambodgien Huione sur ces deux plateformes. Ils en concluent que cette entreprise, qui est « utilisée par des gangs criminels chinois pour blanchir les profits issus de la traite d’êtres humains et d’opérations frauduleuses à l’échelle industrielle », a transféré à Binance 408 millions de dollars (351 millions d’euros) entre juillet 2024 et juillet 2025, et 226 millions de dollars (195 millions d’euros) à OKX entre fin février 2025 et la fin juillet 2025.

Le mois dernier, le Réseau de lutte contre les crimes financiers (FinCEN) du département du Trésor américain ciblait ce même conglomérat cambodgien, l’accusant d’avoir blanchi « au moins 4 milliards de dollars de produits illicites entre août 2021 et janvier 2025 ». Le FinCEN annonçait avoir exclu Huione du système financier états-unien en parallèle de la saisie de 127 271 bitcoins (d’une valeur actuelle d’environ 15 milliards de dollars), dans le cadre de l’accusation de fraudes électroniques et de blanchiment d’argent de Chen Zhi, le fondateur et président de Prince Holding Group, un autre conglomérat cambodgien.

D’autres réseaux illégaux continuent d’utiliser ces plateformes

ICIJ a aussi découvert des transactions d’autres organisations illégales à travers le monde. Ainsi, le cartel de drogue mexicain Sinaloa a reçu plus de 700 000 dollars via des comptes de la plateforme Coinbase. Le consortium liste aussi un réseau de trafiquants chinois de fentanyl ou encore un intermédiaire russe chargé de blanchir de l’argent pour le programme d’armement nord-coréen en utilisant un compte sur la plateforme HTX.

Dans son enquête, l’ICIJ se demande si « les plateformes d’échange en font assez pour mettre fin aux flux illicites, que ce soit en gelant les fonds, en fermant les comptes ou en surveillant attentivement les transactions suspectes ». En novembre 2023, Binance et son ancien CEO, Changpeng Zhao « CZ », avaient plaidé coupable de violation des lois états-uniennes contre le blanchiment.

Binance en porte-à-faux avec ses engagements de 2023, CZ amnistié

L’entreprise s’était engagée à se plier aux législations en vigueur. Elle avait pu continuer ses activités même si le département de Justice américain relevait que l’entreprise avait volontairement favorisé ces transactions. Celui-ci notait par exemple, comme le révélait le Wall Street Journal, qu’un des employés chargé de la conformité de l’entreprise avait écrit dans le chat interne : « Nous avons besoin d’une bannière disant : « Le blanchiment d’argent sale est trop difficile ces jours-ci ? Venez chez Binance, nous avons des gâteaux pour vous » ».

Donald Trump a récemment amnistié CZ. À cette occasion, la porte-parole de la Maison-Blanche, Karoline Leavitt, a déclaré que les poursuites menées par le prédécesseur de Donald Trump « ont gravement terni la réputation des États-Unis comme leader en matière de technologie et d’innovation. La guerre du gouvernement Biden contre les cryptos est finie ».

« S’ils excluent les acteurs criminels de leur plateforme, ils perdent alors une importante source de revenus, ce qui les incite à laisser cette activité se poursuivre », explique à l’ICIJ John Griffin, enseignant-chercheur à l’université du Texas à Austin.

Cette enquête montre que, contrairement aux engagements pris en 2023 par Binance, l’entreprise et le milieu des cryptomonnaies n’ont pas fait le ménage. Si on pouvait le suspecter, comme l’exprime le CTO de l’ICIJ, Pierre Romera Zhang, « sans données, sans fact-checking, sans transparence, il n’y a ni débat public éclairé ni pression sur les plateformes, les législateurs et les autorités ».

Reçu hier — 17 novembre 2025

☕️ Le service Pajemploi de l’ Urssaf concerné par une cyberattaque

17 novembre 2025 à 15:58

Ce lundi 17 novembre, l’Urssaf indique que son service Pajemploi « a été victime d’un vol de données à caractère personnel de salariés des particuliers employeurs utilisant le service Pajemploi ».

Celui-ci a été mis en place pour permettre aux parents employeurs de déclarer et rémunérer les assistants maternels et gardes d’enfants à domicile.

L’Urssaf affirme avoir constaté l’ « acte de cybermalveillance » ce vendredi 14 novembre qui « a pu concerner jusqu’à 1,2 million de salariés de particuliers employeurs ».

Selon l’organisme, les données potentiellement concernées sont « les nom, prénom, date et lieu de naissance, adresse postale, numéro de Sécurité sociale, nom de l’établissement bancaire, numéro Pajemploi et numéro d’agrément ».

Il souligne qu’ « aucun numéro de compte bancaire (IBAN), aucune adresse mail, aucun numéro de téléphone ou mot de passe de connexion ne sont concernés ».

L’Urssaf assure avoir « immédiatement pris les mesures nécessaires et mobilisé toutes les équipes pour en identifier les causes, y mettre fin et renforcer la protection de nos systèmes d’information », avoir notifié la CNIL et l’ANSSI et qu’elle portera plainte auprès du procureur de la République.

L’organisme « présente toutes ses excuses pour cette atteinte à la confidentialité des données et assure ses usagers de son engagement et de sa vigilance permanente en matière de sécurité et de protection des données personnelles ».

Il « s’engage à envoyer une information individuelle à tous les usagers potentiellement concernés » et recommande à tous de faire preuve de vigilance renforcée face au potentiel phishing.

☕️ Le service Pajemploi de l’ Urssaf concerné par une cyberattaque

17 novembre 2025 à 15:58

Ce lundi 17 novembre, l’Urssaf indique que son service Pajemploi « a été victime d’un vol de données à caractère personnel de salariés des particuliers employeurs utilisant le service Pajemploi ».

Celui-ci a été mis en place pour permettre aux parents employeurs de déclarer et rémunérer les assistants maternels et gardes d’enfants à domicile.

L’Urssaf affirme avoir constaté l’ « acte de cybermalveillance » ce vendredi 14 novembre qui « a pu concerner jusqu’à 1,2 million de salariés de particuliers employeurs ».

Selon l’organisme, les données potentiellement concernées sont « les nom, prénom, date et lieu de naissance, adresse postale, numéro de Sécurité sociale, nom de l’établissement bancaire, numéro Pajemploi et numéro d’agrément ».

Il souligne qu’ « aucun numéro de compte bancaire (IBAN), aucune adresse mail, aucun numéro de téléphone ou mot de passe de connexion ne sont concernés ».

L’Urssaf assure avoir « immédiatement pris les mesures nécessaires et mobilisé toutes les équipes pour en identifier les causes, y mettre fin et renforcer la protection de nos systèmes d’information », avoir notifié la CNIL et l’ANSSI et qu’elle portera plainte auprès du procureur de la République.

L’organisme « présente toutes ses excuses pour cette atteinte à la confidentialité des données et assure ses usagers de son engagement et de sa vigilance permanente en matière de sécurité et de protection des données personnelles ».

Il « s’engage à envoyer une information individuelle à tous les usagers potentiellement concernés » et recommande à tous de faire preuve de vigilance renforcée face au potentiel phishing.

Weda : une cyberattaque et une semaine de galère pour 23 000 médecins

17 novembre 2025 à 14:48
Health Data leak
Weda : une cyberattaque et une semaine de galère pour 23 000 médecins

L’éditeur du logiciel médical Weda et filiale du groupe de santé Vidal a subi une cyberattaque la semaine dernière. Les 23 000 médecins et structures médicales clients n’ont pas pu accéder aux données de leurs patients pendant plusieurs jours. De nombreuses questions restent en suspens, relatives à la responsabilité d’informer les patients ou à la nature des informations potentiellement dérobées.

Depuis lundi 10 novembre, des milliers de praticiens de santé ont été touchés par les conséquences d’une cyberattaque contre l’éditeur du logiciel médical Weda, une filiale du groupe de santé Vidal depuis 2019.

Weda affiche plus de 23 000 utilisateurs, professionnels de santé sur son site internet. Mais l’accès au service a été coupé par l’entreprise le lundi 10 novembre à 23 h avant l’envoi mercredi 12 novembre d’un message à ses clients indiquant que ses « équipes ont détecté une activité inhabituelle sur certains comptes utilisateurs, laissant penser à des tentatives d’accès non autorisés », a appris le Mag IT.

Weda expliquait dans ce message que « depuis cette décision, [ses] équipes techniques et de cybersécurité travaillent sans relâche, en collaboration avec des experts externes, pour renforcer les mesures de protection ».

Toujours dans ce message daté de lundi dernier, elle annonçait à ses clients que « les premières analyses indiquent que les accès malveillants auraient pu permettre une extraction partielle de données, mais ni l’ampleur ni la confirmation formelle d’une fuite de données ne sont encore établies ». Elle ajoutait que « la faille d’accès est fermée et aucune nouvelle activité suspecte n’a été détectée ».

Plusieurs jours sans accès aux dossiers patients

Si Weda leur a envoyé plusieurs emails pour les tenir au courant de la situation, ses clients ont quand même dû attendre plusieurs jours pour avoir de nouveau accès au service. Jusqu’à vendredi 14 novembre, les médecins qui utilisent quotidiennement le service de l’entreprise pour gérer notamment les dossiers de leurs patients ne pouvaient plus s’y connecter.

Mercredi, l’entreprise a communiqué sur l’éventualité du retour de la plateforme sous un mode dégradé avec un accès à certaines fonctionnalités comme la consultation des dossiers de patients ou la gestion de leur agenda mais sans la création d’un nouveau dossier patient, ni la télétransmission des feuilles de soin à la sécurité sociale, ni le service d’ordonnance numérique ou encore la gestion des connectiques (ex: scanner, matériel ECG, etc.).

Finalement, cet accès en mode dégradé a été mis en place vendredi matin, selon Le Figaro, mais de nombreux témoignages sur les réseaux sociaux montraient que les médecins avaient toujours des difficultés à se connecter à Weda ce week-end.

Ainsi, le médecin Jean-Jacques Fraslin jugeait que « le logiciel WEDA reste convalescent » en joignant samedi une capture d’écran d’un message de Weda informant ses utilisateurs d’une fermeture nocturne de la plateforme « chaque nuit de 22 h à 7 h, du vendredi soir au lundi matin ».

Concrètement, la semaine dernière a été compliquée pour certains médecins, comme l’explique la Fédération des médecins de France : « les médecins utilisateurs de WEDA sont revenus au crayon et au papier, sans possibilité de consulter le moindre dossier médical partagé, ni le moindre dossier individuel ».

« On ne peut plus rien faire en ligne, on doit tout faire par papier. Nous n’avons plus accès aux antécédents des patients ni à leur dossier médical », confiait un médecin eurois à Paris-Normandie, ajoutant : « C’est plus qu’un handicap, ça fout en l’air nos journées ». Son confrère Philippe Boutin détaille au Figaro : « Ce n’est pas confortable de soigner les patients à l’aveugle, sans visibilité sur les prises de sang, les antécédents médicaux, les examens complémentaires » et explique avoir utilisé des « moyens un peu détournés, comme aller sur le site d’Ameli [le site de l’Assurance maladie en ligne, NDLR] pour consulter l’historique des remboursements et avoir une idée des dosages et traitements particuliers ».

Alors que le Sénat se prépare à examiner le projet de loi de financement de la Sécurité sociale (PLFSS 2026), dont l’article 31 prévoit de rendre obligatoire la consultation et l’alimentation du dossier médical partagé (DMP), le syndicat des médecins généralistes veut quant à lui tirer la sonnette d’alarme. « Au-delà du désagrément majeur impactant la pratique, cet incident illustre la dépendance et la fragilité de systèmes d’information en santé « tout en ligne ». Pendant que les médecins sont empêchés de travailler, les parlementaires choisissent ce moment pour rendre obligatoire l’usage du DMP et prévoir des sanctions pour ceux qui ne l’utiliseraient pas ! », s’insurge ce dernier.

Une information aux patients à faire par les médecins ?

Mais un nouveau message de Weda envoyé vendredi 14 novembre vers 11 h a fait bondir plusieurs médecins. En effet, en cette fin de semaine mouvementée, l’entreprise a expliqué à ses clients qu’ils devraient eux-mêmes compléter une « déclaration de violation de données auprès de la CNIL ».

L’entreprise ajoutait que « la première communication faisant état d’une violation de données est datée du mercredi 12 novembre à 01h00. En conséquence, le délai réglementaire de notification de 72 heures court jusqu’au samedi 15 novembre à 01h00. WEDA est déjà en contact avec les autorités, qui sont bien conscientes de la difficulté de recueillir toutes les informations dans ce délai ».

Le message envoyé par Weda le 14 novembre invite les professionnels de santé à compléter une déclaration de violation de données auprès de la CNIL – capture d’écran Next

Weda semble considérer que ce sont ses clients, les médecins utilisateurs de son service, qui sont responsables du traitement des données des patients et que c’est donc à eux de notifier aux personnes concernées. Comme le rappelle la CNIL, cette notification doit « a minima contenir » les éléments suivants :

  • « la nature de la violation ;
  • les conséquences probables de la violation ;
  • les coordonnées de la personne à contacter (DPO ou autre) ;
  • les mesures prises pour remédier à la violation et, le cas échéant, pour limiter les conséquences négatives de la violation. »

« Mais on ne sait même pas quelles données ont été violées ! » explique Pierre Bidaut, médecin généraliste en maison de santé à Gien au Figaro.

Se pose aussi la question de l’outil par lequel informer les patients, comme le notait vendredi soir Jean-Jacques Fraslin sur X : « À supposer que l’adresse mail soit renseignée dans la partie administrative du dossier médical, il faudrait que WEDA fournisse une routine permettant de les compiler afin de permettre à ses utilisateurs d’envoyer un mail groupé à tous ». L’entreprise aurait suggéré à une secrétaire médicale, dans un premier temps, un affichage en salle d’attente.

Contactée par Next, Weda n’a pas encore répondu à notre sollicitation. Nous ne manquerons pas de mettre à jour cet article si l’entreprise nous fournit plus d’explications.

Weda : une cyberattaque et une semaine de galère pour 23 000 médecins

17 novembre 2025 à 14:48
Health Data leak
Weda : une cyberattaque et une semaine de galère pour 23 000 médecins

L’éditeur du logiciel médical Weda et filiale du groupe de santé Vidal a subi une cyberattaque la semaine dernière. Les 23 000 médecins et structures médicales clients n’ont pas pu accéder aux données de leurs patients pendant plusieurs jours. De nombreuses questions restent en suspens, relatives à la responsabilité d’informer les patients ou à la nature des informations potentiellement dérobées.

Depuis lundi 10 novembre, des milliers de praticiens de santé ont été touchés par les conséquences d’une cyberattaque contre l’éditeur du logiciel médical Weda, une filiale du groupe de santé Vidal depuis 2019.

Weda affiche plus de 23 000 utilisateurs, professionnels de santé sur son site internet. Mais l’accès au service a été coupé par l’entreprise le lundi 10 novembre à 23 h avant l’envoi mercredi 12 novembre d’un message à ses clients indiquant que ses « équipes ont détecté une activité inhabituelle sur certains comptes utilisateurs, laissant penser à des tentatives d’accès non autorisés », a appris le Mag IT.

Weda expliquait dans ce message que « depuis cette décision, [ses] équipes techniques et de cybersécurité travaillent sans relâche, en collaboration avec des experts externes, pour renforcer les mesures de protection ».

Toujours dans ce message daté de lundi dernier, elle annonçait à ses clients que « les premières analyses indiquent que les accès malveillants auraient pu permettre une extraction partielle de données, mais ni l’ampleur ni la confirmation formelle d’une fuite de données ne sont encore établies ». Elle ajoutait que « la faille d’accès est fermée et aucune nouvelle activité suspecte n’a été détectée ».

Plusieurs jours sans accès aux dossiers patients

Si Weda leur a envoyé plusieurs emails pour les tenir au courant de la situation, ses clients ont quand même dû attendre plusieurs jours pour avoir de nouveau accès au service. Jusqu’à vendredi 14 novembre, les médecins qui utilisent quotidiennement le service de l’entreprise pour gérer notamment les dossiers de leurs patients ne pouvaient plus s’y connecter.

Mercredi, l’entreprise a communiqué sur l’éventualité du retour de la plateforme sous un mode dégradé avec un accès à certaines fonctionnalités comme la consultation des dossiers de patients ou la gestion de leur agenda mais sans la création d’un nouveau dossier patient, ni la télétransmission des feuilles de soin à la sécurité sociale, ni le service d’ordonnance numérique ou encore la gestion des connectiques (ex: scanner, matériel ECG, etc.).

Finalement, cet accès en mode dégradé a été mis en place vendredi matin, selon Le Figaro, mais de nombreux témoignages sur les réseaux sociaux montraient que les médecins avaient toujours des difficultés à se connecter à Weda ce week-end.

Ainsi, le médecin Jean-Jacques Fraslin jugeait que « le logiciel WEDA reste convalescent » en joignant samedi une capture d’écran d’un message de Weda informant ses utilisateurs d’une fermeture nocturne de la plateforme « chaque nuit de 22 h à 7 h, du vendredi soir au lundi matin ».

Concrètement, la semaine dernière a été compliquée pour certains médecins, comme l’explique la Fédération des médecins de France : « les médecins utilisateurs de WEDA sont revenus au crayon et au papier, sans possibilité de consulter le moindre dossier médical partagé, ni le moindre dossier individuel ».

« On ne peut plus rien faire en ligne, on doit tout faire par papier. Nous n’avons plus accès aux antécédents des patients ni à leur dossier médical », confiait un médecin eurois à Paris-Normandie, ajoutant : « C’est plus qu’un handicap, ça fout en l’air nos journées ». Son confrère Philippe Boutin détaille au Figaro : « Ce n’est pas confortable de soigner les patients à l’aveugle, sans visibilité sur les prises de sang, les antécédents médicaux, les examens complémentaires » et explique avoir utilisé des « moyens un peu détournés, comme aller sur le site d’Ameli [le site de l’Assurance maladie en ligne, NDLR] pour consulter l’historique des remboursements et avoir une idée des dosages et traitements particuliers ».

Alors que le Sénat se prépare à examiner le projet de loi de financement de la Sécurité sociale (PLFSS 2026), dont l’article 31 prévoit de rendre obligatoire la consultation et l’alimentation du dossier médical partagé (DMP), le syndicat des médecins généralistes veut quant à lui tirer la sonnette d’alarme. « Au-delà du désagrément majeur impactant la pratique, cet incident illustre la dépendance et la fragilité de systèmes d’information en santé « tout en ligne ». Pendant que les médecins sont empêchés de travailler, les parlementaires choisissent ce moment pour rendre obligatoire l’usage du DMP et prévoir des sanctions pour ceux qui ne l’utiliseraient pas ! », s’insurge ce dernier.

Une information aux patients à faire par les médecins ?

Mais un nouveau message de Weda envoyé vendredi 14 novembre vers 11 h a fait bondir plusieurs médecins. En effet, en cette fin de semaine mouvementée, l’entreprise a expliqué à ses clients qu’ils devraient eux-mêmes compléter une « déclaration de violation de données auprès de la CNIL ».

L’entreprise ajoutait que « la première communication faisant état d’une violation de données est datée du mercredi 12 novembre à 01h00. En conséquence, le délai réglementaire de notification de 72 heures court jusqu’au samedi 15 novembre à 01h00. WEDA est déjà en contact avec les autorités, qui sont bien conscientes de la difficulté de recueillir toutes les informations dans ce délai ».

Le message envoyé par Weda le 14 novembre invite les professionnels de santé à compléter une déclaration de violation de données auprès de la CNIL – capture d’écran Next

Weda semble considérer que ce sont ses clients, les médecins utilisateurs de son service, qui sont responsables du traitement des données des patients et que c’est donc à eux de notifier aux personnes concernées. Comme le rappelle la CNIL, cette notification doit « a minima contenir » les éléments suivants :

  • « la nature de la violation ;
  • les conséquences probables de la violation ;
  • les coordonnées de la personne à contacter (DPO ou autre) ;
  • les mesures prises pour remédier à la violation et, le cas échéant, pour limiter les conséquences négatives de la violation. »

« Mais on ne sait même pas quelles données ont été violées ! » explique Pierre Bidaut, médecin généraliste en maison de santé à Gien au Figaro.

Se pose aussi la question de l’outil par lequel informer les patients, comme le notait vendredi soir Jean-Jacques Fraslin sur X : « À supposer que l’adresse mail soit renseignée dans la partie administrative du dossier médical, il faudrait que WEDA fournisse une routine permettant de les compiler afin de permettre à ses utilisateurs d’envoyer un mail groupé à tous ». L’entreprise aurait suggéré à une secrétaire médicale, dans un premier temps, un affichage en salle d’attente.

Contactée par Next, Weda n’a pas encore répondu à notre sollicitation. Nous ne manquerons pas de mettre à jour cet article si l’entreprise nous fournit plus d’explications.

Reçu avant avant-hier

Claude Code est utilisé pour automatiser des cyberattaques

14 novembre 2025 à 16:25
IA l'attaque !
Claude Code est utilisé pour automatiser des cyberattaques

Anthropic explique avoir détecté l’utilisation de son service de vibe coding Claude Code pour mettre au point des cyberattaques en passant outre les garde-fous mis en place. La startup d’IA a analysé l’attaque, banni les comptes utilisés pour la mettre en place, prévenu les entreprises ciblées et travaillé avec les autorités concernées.

Certains clients des entreprises d’IA générative veulent profiter de leurs outils pour monter plus facilement des cyberattaques. Il y a un mois, OpenAI expliquait avoir banni des comptes chinois cherchant à surveiller les réseaux sociaux.

C’est maintenant au tour d’Anthropic de publier un rapport sur le sujet. Ici, l’entreprise explique avoir détecté à la mi-septembre ce qu’elle qualifie d’ « opération de cyberespionnage sophistiquée » conduite par un groupe de hackers (qu’elle nomme GTG-1002) soutenu par l’État chinois.

Claude utilisé comme Agent pour concevoir une grande partie des attaques

« Les pirates ont utilisé les capacités « agentiques » de l’IA à un degré sans précédent, utilisant l’IA non seulement comme conseiller, mais aussi pour exécuter eux-mêmes les cyberattaques », affirme Anthropic.

Sans indiquer si c’est une mesure au doigt mouillé ou un calcul plus précis, Anthropic affirme qu’ils ont « pu utiliser l’IA pour mener à bien 80 à 90 % de la campagne, l’intervention humaine n’étant nécessaire que de manière sporadique (peut-être 4 à 6 points de décision critiques par campagne de piratage) ». Elle indique quand même que « la quantité de travail effectuée par l’IA aurait pris énormément de temps à une équipe humaine. Au plus fort de son attaque, l’IA a effectué des milliers de requêtes, souvent plusieurs par seconde, une vitesse d’attaque qui aurait été tout simplement impossible à égaler pour des pirates informatiques humains ». Si Anthropic « vend » les capacités de son IA à faire des milliers de requêtes, rappelons que l’automatisation des cyberattaques ne date pas d’aujourd’hui : on connait déjà depuis des années des attaques DdoS submergeant des systèmes informatiques de requêtes ou de données.

L’entreprise explique avoir lancé une enquête dès qu’elle a détecté l’activité suspicieuse. Anthropic indique que cette enquête a duré 10 jours pendant lesquels elle a petit à petit banni les comptes utilisés, informé les cibles concernées et travaillé avec les autorités.

Selon Anthropic, Claude Code a été utilisé pendant les cinq phases de l’attaque, de la mise en place et la sélection des cibles à l’extraction des données intéressantes, en passant par les phases de recherche de vulnérabilités des infrastructures ciblées et celle de collecte d’identifiants utiles pour s’infiltrer.

Dans son rapport, l’entreprise fournit des exemples de séquences de mise en place du système avec les tâches effectuées par Claude et celles de l’utilisateur humain :

Un découpage des tâches pour passer les sécurités de Claude

Pour mettre en place leur projet, les pirates ont dû passer les sécurités mises en place dans Claude par Anthropic pour bloquer les attaques. L’entreprise avoue qu’ils ont pu cacher leur projet simplement en découpant les attaques en petites tâches paraissant anodines, ce qui coupait Claude du contexte complet des attaques. « Ils ont également dit à Claude qu’il s’agissait d’un employé d’une entreprise de cybersécurité légitime et qu’il était utilisé dans le cadre de tests défensifs », affirme l’entreprise.

Dans son billet, Anthropic constate qu’avec des outils comme Claude, « les barrières pour réaliser des cyberattaques sophistiquées se sont abaissées énormément » et elle prévoit que cette baisse va continuer. « Des groupes moins expérimentés et disposant de moins de ressources peuvent désormais potentiellement mener des attaques à grande échelle de cette nature », assure-t-elle.

De quoi abandonner le développement de Claude ? L’entreprise se pose elle-même la question : « si les modèles d’IA peuvent être détournés à des fins de cyberattaques à cette échelle, pourquoi continuer à les développer et à les commercialiser ? ». Mais elle se reprend très vite : « La réponse est que les capacités mêmes qui permettent à Claude d’être utilisé dans ces attaques le rendent également indispensable pour la cyberdéfense ». Claude aurait alors une place de choix dans la course aux armements.

Claude Code est utilisé pour automatiser des cyberattaques

14 novembre 2025 à 16:25
IA l'attaque !
Claude Code est utilisé pour automatiser des cyberattaques

Anthropic explique avoir détecté l’utilisation de son service de vibe coding Claude Code pour mettre au point des cyberattaques en passant outre les garde-fous mis en place. La startup d’IA a analysé l’attaque, banni les comptes utilisés pour la mettre en place, prévenu les entreprises ciblées et travaillé avec les autorités concernées.

Certains clients des entreprises d’IA générative veulent profiter de leurs outils pour monter plus facilement des cyberattaques. Il y a un mois, OpenAI expliquait avoir banni des comptes chinois cherchant à surveiller les réseaux sociaux.

C’est maintenant au tour d’Anthropic de publier un rapport sur le sujet. Ici, l’entreprise explique avoir détecté à la mi-septembre ce qu’elle qualifie d’ « opération de cyberespionnage sophistiquée » conduite par un groupe de hackers (qu’elle nomme GTG-1002) soutenu par l’État chinois.

Claude utilisé comme Agent pour concevoir une grande partie des attaques

« Les pirates ont utilisé les capacités « agentiques » de l’IA à un degré sans précédent, utilisant l’IA non seulement comme conseiller, mais aussi pour exécuter eux-mêmes les cyberattaques », affirme Anthropic.

Sans indiquer si c’est une mesure au doigt mouillé ou un calcul plus précis, Anthropic affirme qu’ils ont « pu utiliser l’IA pour mener à bien 80 à 90 % de la campagne, l’intervention humaine n’étant nécessaire que de manière sporadique (peut-être 4 à 6 points de décision critiques par campagne de piratage) ». Elle indique quand même que « la quantité de travail effectuée par l’IA aurait pris énormément de temps à une équipe humaine. Au plus fort de son attaque, l’IA a effectué des milliers de requêtes, souvent plusieurs par seconde, une vitesse d’attaque qui aurait été tout simplement impossible à égaler pour des pirates informatiques humains ». Si Anthropic « vend » les capacités de son IA à faire des milliers de requêtes, rappelons que l’automatisation des cyberattaques ne date pas d’aujourd’hui : on connait déjà depuis des années des attaques DdoS submergeant des systèmes informatiques de requêtes ou de données.

L’entreprise explique avoir lancé une enquête dès qu’elle a détecté l’activité suspicieuse. Anthropic indique que cette enquête a duré 10 jours pendant lesquels elle a petit à petit banni les comptes utilisés, informé les cibles concernées et travaillé avec les autorités.

Selon Anthropic, Claude Code a été utilisé pendant les cinq phases de l’attaque, de la mise en place et la sélection des cibles à l’extraction des données intéressantes, en passant par les phases de recherche de vulnérabilités des infrastructures ciblées et celle de collecte d’identifiants utiles pour s’infiltrer.

Dans son rapport, l’entreprise fournit des exemples de séquences de mise en place du système avec les tâches effectuées par Claude et celles de l’utilisateur humain :

Un découpage des tâches pour passer les sécurités de Claude

Pour mettre en place leur projet, les pirates ont dû passer les sécurités mises en place dans Claude par Anthropic pour bloquer les attaques. L’entreprise avoue qu’ils ont pu cacher leur projet simplement en découpant les attaques en petites tâches paraissant anodines, ce qui coupait Claude du contexte complet des attaques. « Ils ont également dit à Claude qu’il s’agissait d’un employé d’une entreprise de cybersécurité légitime et qu’il était utilisé dans le cadre de tests défensifs », affirme l’entreprise.

Dans son billet, Anthropic constate qu’avec des outils comme Claude, « les barrières pour réaliser des cyberattaques sophistiquées se sont abaissées énormément » et elle prévoit que cette baisse va continuer. « Des groupes moins expérimentés et disposant de moins de ressources peuvent désormais potentiellement mener des attaques à grande échelle de cette nature », assure-t-elle.

De quoi abandonner le développement de Claude ? L’entreprise se pose elle-même la question : « si les modèles d’IA peuvent être détournés à des fins de cyberattaques à cette échelle, pourquoi continuer à les développer et à les commercialiser ? ». Mais elle se reprend très vite : « La réponse est que les capacités mêmes qui permettent à Claude d’être utilisé dans ces attaques le rendent également indispensable pour la cyberdéfense ». Claude aurait alors une place de choix dans la course aux armements.

Google : Bruxelles enquête sur la rétrogradation des contenus de certains médias

14 novembre 2025 à 11:12
Publireportages, publicités natives ou spam, c'est pas la même chose ?
Google : Bruxelles enquête sur la rétrogradation des contenus de certains médias

Dans son moteur de recherche, Google a décidé de rétrograder des publications sponsorisées publiées sur les sites de certains médias, les considérant comme du spam. La Commission européenne vient d’ouvrir une enquête sur le sujet pour vérifier que cette démarche respecte le DMA et que Google n’utilise pas ce filtre pour protéger ses parts de marché dans la publicité en ligne.

La Commission européenne ouvre une nouvelle enquête sur les pratiques de Google. Alors qu’elle a récemment infligé une amende de 3 milliards d’euros à l’entreprise pour avoir enfreint les règles de la concurrence dans le domaine de la publicité, l’organe exécutif de l’Union européenne s’intéresse à la rétrogradation de contenus de certains médias dans le moteur de recherche.

Elle cherche à vérifier que Google applique bien « des conditions d’accès équitables, raisonnables et non discriminatoires aux sites web des éditeurs sur Google Search », explique-t-elle dans un communiqué, en précisant que c’est une obligation imposée par la législation sur les marchés numériques (le DMA).

Google considère depuis un an et demi certains publireportages ou publicités natives comme du spam

Tout part d’une mise à jour par Google, en mars 2024, de ses règles concernant le spam pour son moteur de recherche.

On peut y lire notamment que, depuis, l’entreprise considère comme des « liens toxiques » les « publireportages ou publicités natives pour lesquels une rémunération est perçue contre des articles contenant des liens qui améliorent le classement, ou des liens avec du texte d’ancrage optimisé dans des articles, des articles d’invités, ou des communiqués de presse diffusés sur d’autres sites ».

Dans son argumentaire pour justifier cette mise à jour, Google explique sa position : « Nos Règles concernant le spam visent à contrarier les pratiques pouvant avoir un impact négatif sur la qualité des résultats de recherche Google ».

Un changement qui n’a pas plu aux lobbys de la presse européenne

Mais, comme l’expliquaient en avril dernier nos confrères de Contexte, plusieurs lobbys de la presse européenne pointaient les « pratiques de Google relatives à sa politique dite « Site Reputation Abuse » (SRA) – une mesure qui pénalise les sites web dans le classement de Google Search pour avoir coopéré avec des fournisseurs de contenu tiers, indépendamment du contrôle éditorial exercé par le site web sur ce contenu ou de sa qualité respective ».

Le même jour, l’entreprise allemande ActMeraki portait plainte auprès de la Commission sur le même sujet. « Google continue de fixer unilatéralement les règles du commerce en ligne à son avantage, en privilégiant ses propres offres commerciales et en privant les prestataires de services concurrents de toute visibilité. Il est temps d’y mettre un terme définitif », affirmait à Reuters l’avocat de l’entreprise.

Et tout le problème est là. Si les arguments de Google contre l’utilisation des publireportages ou publicités natives pour promouvoir du spam sont légitimes, l’entreprise met en place des règles concernant le marché de la publicité alors qu’elle est elle-même en position dominante sur celui-ci.

La Commission explique examiner « si les rétrogradations par Alphabet de sites web et de contenus d’éditeurs dans Google Search peuvent avoir une incidence sur la liberté des éditeurs d’exercer des activités commerciales légitimes, d’innover et de coopérer avec des fournisseurs de contenus tiers ». Elle précise que l’ouverture de son enquête « ne préjuge pas d’une constatation de non-conformité ». Elle ajoute que si elle trouve des preuves d’infractions au DMA, elle expliquera à Alphabet les mesures adéquates à prendre et qu’elle peut lui infliger une amende allant jusqu’à 10 % de son chiffre d’affaires mondial.

Dans sa déclaration sur le sujet, la vice-présidente exécutive de la Commission européenne pour une transition propre, juste et compétitive, Teresa Ribera, est plus vindicative : « Nous sommes préoccupés par le fait que les politiques de Google ne permettent pas aux éditeurs de presse d’être traités de manière équitable, raisonnable et non discriminatoire dans ses résultats de recherche. Nous mènerons une enquête afin de nous assurer que les éditeurs de presse ne perdent pas d’importantes sources de revenus dans une période difficile pour le secteur, et que Google respecte la loi sur les marchés numériques ».

Google confirme sa position sur sa lutte anti-spam

De son côté, Google a jugé bon de publier un billet de blog pour défendre la politique anti-spam de son moteur de recherche. « L’enquête annoncée aujourd’hui sur nos efforts de lutte contre le spam est malavisée et risque de nuire à des millions d’utilisateurs européens », affirme l’entreprise. « La politique anti-spam de Google est essentielle dans notre lutte contre les tactiques trompeuses de paiement à la performance qui nuisent à la qualité de nos résultats », ajoute-t-elle.

Elle donne deux exemples d’articles sponsorisés qu’elle considère comme problématiques :

Si l’entreprise semble se soucier des spams qui polluent son moteur de recherche, rappelons qu’elle montre beaucoup moins de scrupule dans la gestion des contenus recommandés par son autre outil Discover qui met en avant, par exemple, des infox GenAI diffamantes sur du soi-disant pain cancérigène ou un faux scandale de poissons recongelés.

Google : Bruxelles enquête sur la rétrogradation des contenus de certains médias

14 novembre 2025 à 11:12
Publireportages, publicités natives ou spam, c'est pas la même chose ?
Google : Bruxelles enquête sur la rétrogradation des contenus de certains médias

Dans son moteur de recherche, Google a décidé de rétrograder des publications sponsorisées publiées sur les sites de certains médias, les considérant comme du spam. La Commission européenne vient d’ouvrir une enquête sur le sujet pour vérifier que cette démarche respecte le DMA et que Google n’utilise pas ce filtre pour protéger ses parts de marché dans la publicité en ligne.

La Commission européenne ouvre une nouvelle enquête sur les pratiques de Google. Alors qu’elle a récemment infligé une amende de 3 milliards d’euros à l’entreprise pour avoir enfreint les règles de la concurrence dans le domaine de la publicité, l’organe exécutif de l’Union européenne s’intéresse à la rétrogradation de contenus de certains médias dans le moteur de recherche.

Elle cherche à vérifier que Google applique bien « des conditions d’accès équitables, raisonnables et non discriminatoires aux sites web des éditeurs sur Google Search », explique-t-elle dans un communiqué, en précisant que c’est une obligation imposée par la législation sur les marchés numériques (le DMA).

Google considère depuis un an et demi certains publireportages ou publicités natives comme du spam

Tout part d’une mise à jour par Google, en mars 2024, de ses règles concernant le spam pour son moteur de recherche.

On peut y lire notamment que, depuis, l’entreprise considère comme des « liens toxiques » les « publireportages ou publicités natives pour lesquels une rémunération est perçue contre des articles contenant des liens qui améliorent le classement, ou des liens avec du texte d’ancrage optimisé dans des articles, des articles d’invités, ou des communiqués de presse diffusés sur d’autres sites ».

Dans son argumentaire pour justifier cette mise à jour, Google explique sa position : « Nos Règles concernant le spam visent à contrarier les pratiques pouvant avoir un impact négatif sur la qualité des résultats de recherche Google ».

Un changement qui n’a pas plu aux lobbys de la presse européenne

Mais, comme l’expliquaient en avril dernier nos confrères de Contexte, plusieurs lobbys de la presse européenne pointaient les « pratiques de Google relatives à sa politique dite « Site Reputation Abuse » (SRA) – une mesure qui pénalise les sites web dans le classement de Google Search pour avoir coopéré avec des fournisseurs de contenu tiers, indépendamment du contrôle éditorial exercé par le site web sur ce contenu ou de sa qualité respective ».

Le même jour, l’entreprise allemande ActMeraki portait plainte auprès de la Commission sur le même sujet. « Google continue de fixer unilatéralement les règles du commerce en ligne à son avantage, en privilégiant ses propres offres commerciales et en privant les prestataires de services concurrents de toute visibilité. Il est temps d’y mettre un terme définitif », affirmait à Reuters l’avocat de l’entreprise.

Et tout le problème est là. Si les arguments de Google contre l’utilisation des publireportages ou publicités natives pour promouvoir du spam sont légitimes, l’entreprise met en place des règles concernant le marché de la publicité alors qu’elle est elle-même en position dominante sur celui-ci.

La Commission explique examiner « si les rétrogradations par Alphabet de sites web et de contenus d’éditeurs dans Google Search peuvent avoir une incidence sur la liberté des éditeurs d’exercer des activités commerciales légitimes, d’innover et de coopérer avec des fournisseurs de contenus tiers ». Elle précise que l’ouverture de son enquête « ne préjuge pas d’une constatation de non-conformité ». Elle ajoute que si elle trouve des preuves d’infractions au DMA, elle expliquera à Alphabet les mesures adéquates à prendre et qu’elle peut lui infliger une amende allant jusqu’à 10 % de son chiffre d’affaires mondial.

Dans sa déclaration sur le sujet, la vice-présidente exécutive de la Commission européenne pour une transition propre, juste et compétitive, Teresa Ribera, est plus vindicative : « Nous sommes préoccupés par le fait que les politiques de Google ne permettent pas aux éditeurs de presse d’être traités de manière équitable, raisonnable et non discriminatoire dans ses résultats de recherche. Nous mènerons une enquête afin de nous assurer que les éditeurs de presse ne perdent pas d’importantes sources de revenus dans une période difficile pour le secteur, et que Google respecte la loi sur les marchés numériques ».

Google confirme sa position sur sa lutte anti-spam

De son côté, Google a jugé bon de publier un billet de blog pour défendre la politique anti-spam de son moteur de recherche. « L’enquête annoncée aujourd’hui sur nos efforts de lutte contre le spam est malavisée et risque de nuire à des millions d’utilisateurs européens », affirme l’entreprise. « La politique anti-spam de Google est essentielle dans notre lutte contre les tactiques trompeuses de paiement à la performance qui nuisent à la qualité de nos résultats », ajoute-t-elle.

Elle donne deux exemples d’articles sponsorisés qu’elle considère comme problématiques :

Si l’entreprise semble se soucier des spams qui polluent son moteur de recherche, rappelons qu’elle montre beaucoup moins de scrupule dans la gestion des contenus recommandés par son autre outil Discover qui met en avant, par exemple, des infox GenAI diffamantes sur du soi-disant pain cancérigène ou un faux scandale de poissons recongelés.

☕️ 127 organisations européennes s’insurgent de la volonté de la Commission d’alléger le RGPD

14 novembre 2025 à 08:58

Dans une lettre ouverte publiée ce jeudi 13 novembre [PDF], 127 organisations européennes dont noyb, EDRi, le Chaos Computer Club ou encore Ekō s’opposent à la loi « omnibus numérique » proposée par la Commission européenne. Pour rappel, celle-ci veut notamment alléger le RGPD au profit des entreprises d’IA.

« Ce qui est présenté comme une « rationalisation technique » des lois numériques de l’UE est en réalité une tentative de démanteler subrepticement les protections les plus solides de l’Europe contre les menaces numériques », écrivent-elles. Sans modifications significatives du texte, il deviendrait « le plus grand recul des droits fondamentaux numériques dans l’histoire de l’UE ».

IA Act

« En qualifiant de « bureaucratie » des lois essentielles telles que le RGPD, la directive ePrivacy, la loi sur l’IA, le DSA, le DMA, la réglementation sur l’internet ouvert (DNA), la directive sur le devoir de vigilance des entreprises en matière de durabilité et d’autres lois cruciales, l’UE cède aux puissants acteurs privés et publics qui s’opposent aux principes d’un paysage numérique équitable, sûr et démocratique et qui souhaitent abaisser le niveau des lois européennes à leur propre avantage », affirment-elles.

Enfin, elles ajoutent que « les règles récemment adoptées par l’Europe en matière d’IA risquent également d’être compromises, l’Omnibus étant sur le point de supprimer certaines des mesures de protection destinées à garantir que l’IA soit développée de manière sûre et sans discrimination ».

Ces 127 organisations demandent donc à la Commission de « mettre immédiatement fin » à la relecture de textes comme le RGPD, l’ePrivacy ou l’AI Act et de « réaffirmer l’engagement de l’UE en faveur d’une gouvernance numérique fondée sur les droits, y compris une application stricte des protections existantes ».

☕️ 127 organisations européennes s’insurgent de la volonté de la Commission d’alléger le RGPD

14 novembre 2025 à 08:58

Dans une lettre ouverte publiée ce jeudi 13 novembre [PDF], 127 organisations européennes dont noyb, EDRi, le Chaos Computer Club ou encore Ekō s’opposent à la loi « omnibus numérique » proposée par la Commission européenne. Pour rappel, celle-ci veut notamment alléger le RGPD au profit des entreprises d’IA.

« Ce qui est présenté comme une « rationalisation technique » des lois numériques de l’UE est en réalité une tentative de démanteler subrepticement les protections les plus solides de l’Europe contre les menaces numériques », écrivent-elles. Sans modifications significatives du texte, il deviendrait « le plus grand recul des droits fondamentaux numériques dans l’histoire de l’UE ».

IA Act

« En qualifiant de « bureaucratie » des lois essentielles telles que le RGPD, la directive ePrivacy, la loi sur l’IA, le DSA, le DMA, la réglementation sur l’internet ouvert (DNA), la directive sur le devoir de vigilance des entreprises en matière de durabilité et d’autres lois cruciales, l’UE cède aux puissants acteurs privés et publics qui s’opposent aux principes d’un paysage numérique équitable, sûr et démocratique et qui souhaitent abaisser le niveau des lois européennes à leur propre avantage », affirment-elles.

Enfin, elles ajoutent que « les règles récemment adoptées par l’Europe en matière d’IA risquent également d’être compromises, l’Omnibus étant sur le point de supprimer certaines des mesures de protection destinées à garantir que l’IA soit développée de manière sûre et sans discrimination ».

Ces 127 organisations demandent donc à la Commission de « mettre immédiatement fin » à la relecture de textes comme le RGPD, l’ePrivacy ou l’AI Act et de « réaffirmer l’engagement de l’UE en faveur d’une gouvernance numérique fondée sur les droits, y compris une application stricte des protections existantes ».

COP 30 : alarme sur la propagation de la désinformation sur le climat

13 novembre 2025 à 15:53
This is fine.
COP 30 : alarme sur la propagation de la désinformation sur le climat

Un groupe d’une douzaine de pays présents à la COP 30 au Brésil, dont la France, annonce vouloir s’emparer activement de la lutte contre la désinformation sur le climat. En amont du sommet, des ONG avaient sonné l’alarme à propos de la forte propagation de la désinformation climatique sur internet, avec l’IA générative comme nouvel outil de superpropagation.

En marge de la COP 30 qui se déroule actuellement à Belém, au Brésil, 12 pays ont publié une déclaration sur l’intégrité de l’information en matière de changement climatique.

Déclaration de principe de 12 pays

La Belgique, le Brésil, le Canada, le Chili, le Danemark, la Finlande, la France, l’Allemagne, les Pays-Bas, l’Espagne, la Suède et l’Uruguay appellent [PDF] à lutter contre les contenus mensongers diffusés en ligne et à mettre fin aux attaques.

Ils s’y disent « préoccupés par l’impact croissant de la désinformation, de la mésinformation, du déni, des attaques délibérées contre les journalistes, les défenseurs, les scientifiques, les chercheurs et autres voix publiques spécialisées dans les questions environnementales, ainsi que par d’autres tactiques utilisées pour nuire à l’intégrité des informations sur le changement climatique, qui réduisent la compréhension du public, retardent les mesures urgentes et menacent la réponse mondiale au changement climatique et la stabilité sociale ».

Ces pays s’engagent notamment à soutenir l’initiative mondiale pour l’intégrité de l’information sur le changement climatique lancée par l’Unesco.

Des ONG alertent sur la propagation de la désinformation, notamment à propos de la COP 30 elle-même

Début novembre, juste avant l’ouverture de la COP30, une coalition d’ONG (dont QuotaClimat et Équiterre en France) nommée Climate Action Against Disinformation publiait un rapport titré « Nier, tromper, retarder : démystifié. Comment les grandes entreprises polluantes utilisent la désinformation pour saboter les mesures climatiques, et comment nous pouvons les en empêcher ». Le rapport se faisait notamment l’écho d’une énorme campagne de désinformation sur des inondations à Belém, la ville de la COP 30, documentée par la newsletter Oii.

Celle-ci dénombrait plus de 14 000 exemples de contenus de désinformation publiés entre juillet et septembre sur la COP 30 elle-même. Notamment, des vidéos en partie générées par IA qui faisaient croire à des inondations dans la ville.

« « Voici le Belém de la COP30 qu’ils veulent cacher au monde », déclare un journaliste debout dans les eaux qui inondent la capitale de l’État du Pará », décrit Oii. « Mais… rien de tout cela n’est réel ! Le journaliste n’existe pas, les gens n’existent pas, l’inondation n’existe pas et la ville n’existe pas. La seule chose qui existe, ce sont les nombreux commentaires indignés contre le politicien mentionné dans la vidéo et contre la conférence sur le climat à Belém, sur X (anciennement Twitter) et TikTok », déplore la newsletter.

« Des mesures telles que la loi européenne sur les services numériques (DSA), qui s’appliquent au niveau supranational, rendent les grandes entreprises technologiques plus transparentes et responsables des préjudices causés », affirme la Climate Action Against Disinformation. Et elle ajoute que « si certaines entreprises donnent une mauvaise image de tous les réseaux sociaux, des sites web tels que Wikipédia et Pinterest prouvent que les politiques de lutte contre la désinformation climatique et l’intégrité de l’information sont non seulement possibles, mais nécessaires ».

COP 30 : alarme sur la propagation de la désinformation sur le climat

13 novembre 2025 à 15:53
This is fine.
COP 30 : alarme sur la propagation de la désinformation sur le climat

Un groupe d’une douzaine de pays présents à la COP 30 au Brésil, dont la France, annonce vouloir s’emparer activement de la lutte contre la désinformation sur le climat. En amont du sommet, des ONG avaient sonné l’alarme à propos de la forte propagation de la désinformation climatique sur internet, avec l’IA générative comme nouvel outil de superpropagation.

En marge de la COP 30 qui se déroule actuellement à Belém, au Brésil, 12 pays ont publié une déclaration sur l’intégrité de l’information en matière de changement climatique.

Déclaration de principe de 12 pays

La Belgique, le Brésil, le Canada, le Chili, le Danemark, la Finlande, la France, l’Allemagne, les Pays-Bas, l’Espagne, la Suède et l’Uruguay appellent [PDF] à lutter contre les contenus mensongers diffusés en ligne et à mettre fin aux attaques.

Ils s’y disent « préoccupés par l’impact croissant de la désinformation, de la mésinformation, du déni, des attaques délibérées contre les journalistes, les défenseurs, les scientifiques, les chercheurs et autres voix publiques spécialisées dans les questions environnementales, ainsi que par d’autres tactiques utilisées pour nuire à l’intégrité des informations sur le changement climatique, qui réduisent la compréhension du public, retardent les mesures urgentes et menacent la réponse mondiale au changement climatique et la stabilité sociale ».

Ces pays s’engagent notamment à soutenir l’initiative mondiale pour l’intégrité de l’information sur le changement climatique lancée par l’Unesco.

Des ONG alertent sur la propagation de la désinformation, notamment à propos de la COP 30 elle-même

Début novembre, juste avant l’ouverture de la COP30, une coalition d’ONG (dont QuotaClimat et Équiterre en France) nommée Climate Action Against Disinformation publiait un rapport titré « Nier, tromper, retarder : démystifié. Comment les grandes entreprises polluantes utilisent la désinformation pour saboter les mesures climatiques, et comment nous pouvons les en empêcher ». Le rapport se faisait notamment l’écho d’une énorme campagne de désinformation sur des inondations à Belém, la ville de la COP 30, documentée par la newsletter Oii.

Celle-ci dénombrait plus de 14 000 exemples de contenus de désinformation publiés entre juillet et septembre sur la COP 30 elle-même. Notamment, des vidéos en partie générées par IA qui faisaient croire à des inondations dans la ville.

« « Voici le Belém de la COP30 qu’ils veulent cacher au monde », déclare un journaliste debout dans les eaux qui inondent la capitale de l’État du Pará », décrit Oii. « Mais… rien de tout cela n’est réel ! Le journaliste n’existe pas, les gens n’existent pas, l’inondation n’existe pas et la ville n’existe pas. La seule chose qui existe, ce sont les nombreux commentaires indignés contre le politicien mentionné dans la vidéo et contre la conférence sur le climat à Belém, sur X (anciennement Twitter) et TikTok », déplore la newsletter.

« Des mesures telles que la loi européenne sur les services numériques (DSA), qui s’appliquent au niveau supranational, rendent les grandes entreprises technologiques plus transparentes et responsables des préjudices causés », affirme la Climate Action Against Disinformation. Et elle ajoute que « si certaines entreprises donnent une mauvaise image de tous les réseaux sociaux, des sites web tels que Wikipédia et Pinterest prouvent que les politiques de lutte contre la désinformation climatique et l’intégrité de l’information sont non seulement possibles, mais nécessaires ».

La plupart des benchmarks de LLM ne s’appuient pas sur une méthode fiable

13 novembre 2025 à 11:41
Pseudoscience de la comparaison
La plupart des benchmarks de LLM ne s’appuient pas sur une méthode fiable

Les benchmarks de LLM pullulent mais aucun, ou presque, ne semble s’appuyer sur un travail réellement scientifique, analysent des chercheurs. Ils appellent à une plus grande rigueur.

À chaque publication d’un nouveau modèle pour l’IA générative, l’entreprise qui l’a conçu nous montre par des graphiques qu’il égale ou surpasse ses congénères, en s’appuyant sur des « benchmarks » qu’elle a soigneusement choisis.

Plusieurs études montraient déjà qu’en pratique, ces « bancs de comparaison » n’étaient pas très efficaces pour mesurer les différences entre les modèles, ce qui est pourtant leur raison d’être.

Un nouveau travail scientifique, mené par 23 experts, a évalué 445 benchmarks de LLM. Il a été mis en ligne sur la plateforme de preprints arXiv et sera présenté à la conférence scientifique NeurIPS 2025 début décembre.

Une faible majorité s’appuie sur une méthode théorique robuste

Déjà, une faible majorité (53,4 %) des articles présentant ces 445 benchmarks proposent des preuves de leur validité conceptuelle, expliquent les chercheurs. 35 % comparent le benchmark proposé à d’autres déjà existants, 32 % à une référence humaine et 31 % à un cadre plus réaliste, permettant de comprendre les similitudes et les différences.

Avant de mesurer un phénomène avec un benchmark, il faut le définir. Selon cette étude, 41 % des phénomènes étudiés par ces benchmarks sont bien définis, mais 37 % d’entre eux le sont de manière vague. Ainsi, quand un benchmark affirme mesurer l’ « innocuité » d’un modèle, il est difficile de savoir de quoi on parle exactement. Et même 22 % des phénomènes étudiés par ces benchmarks ne sont pas définis du tout.

16 % seulement utilisent des tests statistiques pour comparer les résultats

De plus, les chercheurs montrent que la plupart de ces benchmarks ne produisent pas des mesures valides statistiquement. Ainsi, 41 % testent exclusivement en vérifiant que les réponses d’un LLM correspondent exactement à ce qui est attendu sans regarder si elles s’en approchent plus ou moins. 81 % d’entre eux utilisent au moins partiellement ce genre de correspondance exacte de réponses. Mais surtout, seulement 16 % des benchmarks étudiés utilisent des estimations d’incertitude ou des tests statistiques pour comparer les résultats. « Cela signifie que les différences signalées entre les systèmes ou les affirmations de supériorité pourraient être dues au hasard plutôt qu’à une réelle amélioration », explique le communiqué d’Oxford présentant l’étude.

Enfin, les chercheurs expliquent qu’une bonne partie des benchmarks ne séparent pas bien les tâches qu’ils analysent. Ainsi, comme ils le spécifient dans le même communiqué, « un test peut demander à un modèle de résoudre un casse-tête logique simple, mais aussi lui demander de présenter la réponse dans un format très spécifique et compliqué. Si le modèle résout correctement le casse-tête, mais échoue au niveau du formatage, il semble moins performant qu’il ne l’est en réalité ».

« « Mesurer ce qui a de l’importance » exige un effort conscient et soutenu »

Dans leur étude, les chercheurs ne font pas seulement des constats. Ils ajoutent des recommandations. Ils demandent notamment à ceux qui établissent des benchmarks de définir clairement les phénomènes qu’ils étudient et de justifier la validité conceptuelle de leur travail.

Pour eux, les créateurs de benchmarks doivent s’assurer de « mesurer le phénomène et uniquement le phénomène » qu’ils étudient, de construire un jeu de données représentatif de la tâche testée et d’utiliser des méthodes statistiques pour comparer les modèles entre eux. Enfin, ils leur conseillent de mener, après avoir conçu leur benchmark, une analyse des erreurs « qui permet de révéler les types d’erreurs commises par les modèles », ce qui permet de comprendre en quoi le benchmark en question est réellement utile.

« En fin de compte, « mesurer ce qui a de l’importance » exige un effort conscient et soutenu de la part de la communauté scientifique pour donner la priorité à la validité conceptuelle, en favorisant un changement culturel vers une validation plus explicite et plus rigoureuse des méthodologies d’évaluation », concluent-ils.

« Les benchmarks sous-tendent presque toutes des affirmations concernant les progrès de l’IA », explique Andrew Bean, dans le communiqué, « mais sans définitions communes et sans mesures fiables, il devient difficile de savoir si les modèles s’améliorent réellement ou s’ils en donnent simplement l’impression ».

La plupart des benchmarks de LLM ne s’appuient pas sur une méthode fiable

13 novembre 2025 à 11:41
Pseudoscience de la comparaison
La plupart des benchmarks de LLM ne s’appuient pas sur une méthode fiable

Les benchmarks de LLM pullulent mais aucun, ou presque, ne semble s’appuyer sur un travail réellement scientifique, analysent des chercheurs. Ils appellent à une plus grande rigueur.

À chaque publication d’un nouveau modèle pour l’IA générative, l’entreprise qui l’a conçu nous montre par des graphiques qu’il égale ou surpasse ses congénères, en s’appuyant sur des « benchmarks » qu’elle a soigneusement choisis.

Plusieurs études montraient déjà qu’en pratique, ces « bancs de comparaison » n’étaient pas très efficaces pour mesurer les différences entre les modèles, ce qui est pourtant leur raison d’être.

Un nouveau travail scientifique, mené par 23 experts, a évalué 445 benchmarks de LLM. Il a été mis en ligne sur la plateforme de preprints arXiv et sera présenté à la conférence scientifique NeurIPS 2025 début décembre.

Une faible majorité s’appuie sur une méthode théorique robuste

Déjà, une faible majorité (53,4 %) des articles présentant ces 445 benchmarks proposent des preuves de leur validité conceptuelle, expliquent les chercheurs. 35 % comparent le benchmark proposé à d’autres déjà existants, 32 % à une référence humaine et 31 % à un cadre plus réaliste, permettant de comprendre les similitudes et les différences.

Avant de mesurer un phénomène avec un benchmark, il faut le définir. Selon cette étude, 41 % des phénomènes étudiés par ces benchmarks sont bien définis, mais 37 % d’entre eux le sont de manière vague. Ainsi, quand un benchmark affirme mesurer l’ « innocuité » d’un modèle, il est difficile de savoir de quoi on parle exactement. Et même 22 % des phénomènes étudiés par ces benchmarks ne sont pas définis du tout.

16 % seulement utilisent des tests statistiques pour comparer les résultats

De plus, les chercheurs montrent que la plupart de ces benchmarks ne produisent pas des mesures valides statistiquement. Ainsi, 41 % testent exclusivement en vérifiant que les réponses d’un LLM correspondent exactement à ce qui est attendu sans regarder si elles s’en approchent plus ou moins. 81 % d’entre eux utilisent au moins partiellement ce genre de correspondance exacte de réponses. Mais surtout, seulement 16 % des benchmarks étudiés utilisent des estimations d’incertitude ou des tests statistiques pour comparer les résultats. « Cela signifie que les différences signalées entre les systèmes ou les affirmations de supériorité pourraient être dues au hasard plutôt qu’à une réelle amélioration », explique le communiqué d’Oxford présentant l’étude.

Enfin, les chercheurs expliquent qu’une bonne partie des benchmarks ne séparent pas bien les tâches qu’ils analysent. Ainsi, comme ils le spécifient dans le même communiqué, « un test peut demander à un modèle de résoudre un casse-tête logique simple, mais aussi lui demander de présenter la réponse dans un format très spécifique et compliqué. Si le modèle résout correctement le casse-tête, mais échoue au niveau du formatage, il semble moins performant qu’il ne l’est en réalité ».

« « Mesurer ce qui a de l’importance » exige un effort conscient et soutenu »

Dans leur étude, les chercheurs ne font pas seulement des constats. Ils ajoutent des recommandations. Ils demandent notamment à ceux qui établissent des benchmarks de définir clairement les phénomènes qu’ils étudient et de justifier la validité conceptuelle de leur travail.

Pour eux, les créateurs de benchmarks doivent s’assurer de « mesurer le phénomène et uniquement le phénomène » qu’ils étudient, de construire un jeu de données représentatif de la tâche testée et d’utiliser des méthodes statistiques pour comparer les modèles entre eux. Enfin, ils leur conseillent de mener, après avoir conçu leur benchmark, une analyse des erreurs « qui permet de révéler les types d’erreurs commises par les modèles », ce qui permet de comprendre en quoi le benchmark en question est réellement utile.

« En fin de compte, « mesurer ce qui a de l’importance » exige un effort conscient et soutenu de la part de la communauté scientifique pour donner la priorité à la validité conceptuelle, en favorisant un changement culturel vers une validation plus explicite et plus rigoureuse des méthodologies d’évaluation », concluent-ils.

« Les benchmarks sous-tendent presque toutes des affirmations concernant les progrès de l’IA », explique Andrew Bean, dans le communiqué, « mais sans définitions communes et sans mesures fiables, il devient difficile de savoir si les modèles s’améliorent réellement ou s’ils en donnent simplement l’impression ».

☕️ Face au New York Times, OpenAI doit présenter 20 millions de logs anonymisés d’ici demain

13 novembre 2025 à 08:51

Dans le procès qui oppose le New York Times à OpenAI, le journal a demandé cet été de pouvoir analyser les logs de l’utilisation de ChatGPT afin de trouver d’éventuelles preuves de violation de copyright.

Ce vendredi 7 novembre, la juge Ona Wang a informé [PDF] les deux parties qu’ « OpenAI est tenu de fournir les 20 millions de logs de ChatGPT anonymisés aux plaignants avant le 14 novembre 2025 ou dans les 7 jours suivant la fin du processus d’anonymisation ».

Façade du bâtiment du New York Times
Photo de Jakayla Toney sur Unsplash

Comme le raconte Reuters, l’entreprise de Sam Altman a répondu [PDF] ce mercredi en se plaignant que « pour être clair : toute personne dans le monde ayant utilisé ChatGPT au cours des trois dernières années doit désormais faire face à la possibilité que ses conversations personnelles soient transmises au Times afin que celui-ci puisse les passer au crible à sa guise dans le cadre d’une enquête spéculative ».

De leur côté, les avocats du journal ont expliqué [PDF] qu’OpenAI a eu trois mois pour anonymiser les données, que l’un des représentants d’OpenAI a reconnu que le processus permettra « d’effacer du contenu les catégories d’informations personnelles identifiables et autres informations (par exemple, les mots de passe ou autres informations sensibles) comme les données utilisateur ». Le journal fait aussi remarquer qu’il doit respecter une ordonnance spéciale protégeant ces données lors de l’inspection de ces logs.

L’entreprise de Sam Altman fait aussi une comparaison avec des affaires ayant impliqué Google en affirmant que « les tribunaux n’autorisent pas les plaignants qui poursuivent Google à fouiller dans les emails privés de dizaines de millions d’utilisateurs Gmail, quelle que soit leur pertinence. Et ce n’est pas non plus ainsi que devrait fonctionner la divulgation dans le cas des outils d’IA générative »

Mais la juge a expliqué qu’ « OpenAI n’a pas expliqué pourquoi les droits à la vie privée de ses consommateurs ne sont pas suffisamment protégés par : (1) l’ordonnance de protection existante dans ce litige multidistrict ou (2) la dépersonnalisation exhaustive par OpenAI de l’ensemble des 20 millions de logs ChatGPT des consommateurs ». Elle semble estimer que les conversations des utilisateurs avec un chatbot ne peuvent pas être considérées comme des conversations privées au même titre que des échanges de courriers ou d’e-mails entre deux personnes réelles.

☕️ Face au New York Times, OpenAI doit présenter 20 millions de logs anonymisés d’ici demain

13 novembre 2025 à 08:51

Dans le procès qui oppose le New York Times à OpenAI, le journal a demandé cet été de pouvoir analyser les logs de l’utilisation de ChatGPT afin de trouver d’éventuelles preuves de violation de copyright.

Ce vendredi 7 novembre, la juge Ona Wang a informé [PDF] les deux parties qu’ « OpenAI est tenu de fournir les 20 millions de logs de ChatGPT anonymisés aux plaignants avant le 14 novembre 2025 ou dans les 7 jours suivant la fin du processus d’anonymisation ».

Façade du bâtiment du New York Times
Photo de Jakayla Toney sur Unsplash

Comme le raconte Reuters, l’entreprise de Sam Altman a répondu [PDF] ce mercredi en se plaignant que « pour être clair : toute personne dans le monde ayant utilisé ChatGPT au cours des trois dernières années doit désormais faire face à la possibilité que ses conversations personnelles soient transmises au Times afin que celui-ci puisse les passer au crible à sa guise dans le cadre d’une enquête spéculative ».

De leur côté, les avocats du journal ont expliqué [PDF] qu’OpenAI a eu trois mois pour anonymiser les données, que l’un des représentants d’OpenAI a reconnu que le processus permettra « d’effacer du contenu les catégories d’informations personnelles identifiables et autres informations (par exemple, les mots de passe ou autres informations sensibles) comme les données utilisateur ». Le journal fait aussi remarquer qu’il doit respecter une ordonnance spéciale protégeant ces données lors de l’inspection de ces logs.

L’entreprise de Sam Altman fait aussi une comparaison avec des affaires ayant impliqué Google en affirmant que « les tribunaux n’autorisent pas les plaignants qui poursuivent Google à fouiller dans les emails privés de dizaines de millions d’utilisateurs Gmail, quelle que soit leur pertinence. Et ce n’est pas non plus ainsi que devrait fonctionner la divulgation dans le cas des outils d’IA générative »

Mais la juge a expliqué qu’ « OpenAI n’a pas expliqué pourquoi les droits à la vie privée de ses consommateurs ne sont pas suffisamment protégés par : (1) l’ordonnance de protection existante dans ce litige multidistrict ou (2) la dépersonnalisation exhaustive par OpenAI de l’ensemble des 20 millions de logs ChatGPT des consommateurs ». Elle semble estimer que les conversations des utilisateurs avec un chatbot ne peuvent pas être considérées comme des conversations privées au même titre que des échanges de courriers ou d’e-mails entre deux personnes réelles.

❌