Vue normale

Reçu aujourd’hui — 3 décembre 2025

Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

3 décembre 2025 à 14:45
Agressions augmentées
Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

Trois personnes sont poursuivies par la police sud-coréenne pour avoir hacké plus de 120 000 caméras IP et s’être servi des flux vidéo récupérés pour produire et vendre des images à caractère sexuel.

Accusées d’avoir hacké plus de 120 000 caméras de foyers et d’entreprises et d’avoir utilisé les images récupérées pour fabriquer des contenus d’exploitation sexuelle, quatre personnes ont été arrêtées par la police sud-coréenne. Les contenus étaient ensuite diffusés sur des sites web à l’étranger.

Ce 30 novembre, la police a déclaré que les malfaiteurs avaient utilisé les vulnérabilités de caméras IP, notamment en recourant à des mots de passe simples, avec des répétitions de caractères ou des séries de chiffres consécutifs.

Création et diffusion de contenu d’exploitation sexuelle

Parmi les caméras touchées, certaines étaient installées dans des foyers privés, dans des salles de karaoké, dans un studio de pilates ou encore dans une clinique gynécologique, rapporte la BBC. Peu onéreux, ces objets sont utilisés partout sur la planète et présentent souvent des vulnérabilités.

Les auteurs du hack ont agi indépendamment les uns des autres, indique encore la police sud-coréenne. L’un est accusé d’avoir hacké 63 000 caméras, produit 545 vidéos d’exploitation sexuelle et d’avoir vendu l’équivalent de 35 millions de wons (plus de 20 000 euros) de ces contenus numériques. Un autre est poursuivi pour le hack de 70 000 caméras et la vente de 648 vidéos pour 18 millions de wons (plus de 10 500 euros). À eux deux, ils auraient produit 62 % des vidéos diffusées l’an dernier sur un site accusé de diffuser des captations illégales de flux issus de caméras IP.

L’un des suspects arrêtés est poursuivi pour avoir violé les lois locales en termes de hacking. Trois des quatre suspects risquent par ailleurs des poursuites pour la création et la vente des contenus à caractère sexuel, dont certaines impliquent des mineurs. Le quatrième a été relâché.

Un phénomène récurrent

Cachées dans les toilettes publiques, les hôtels, l’espace public… en Corée du Sud, les scandales provoqués par l’installation de caméras dans des lieux indus ou l’exploitation illégale des flux vidéo enregistrés se sont produits à répétition, ces dernières années, au point que les femmes descendent dans la rue pour protester contre le phénomène. Entre 2011 et 2022, la police a réalisé près de 50 000 arrestations liées à l’usage de caméras pour créer des contenus ouvertement sexuels, rapporte le New-York Times.

En 2024, le ministère coréen des Sciences alertait sur le fait que les caméras IP achetées hors du pays, et notamment en Chine, risquaient de présenter des failles de sécurité dans la mesure où elles ne remplissaient pas les obligations imposées par la loi coréenne.

Ce mardi, l’institution déclarait étudier une proposition de loi qui obligerait le blocage des caméras personnelles tant que leurs utilisateurs n’auraient pas mis en place un identifiant et un mot de passe complexes.

L’IA générative, « instrument de précision » pour la censure et la répression en Chine

3 décembre 2025 à 14:20
La grande murAI
L’IA générative, « instrument de précision » pour la censure et la répression en Chine

Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».

L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.

Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».

Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.

Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.

Une censure par le silence la plupart du temps

C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.

Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.

L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.

Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :

Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».

La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un ✔ représente l’existence de censure dans les réponses du modèle) :

« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.

Un marché concurrentiel de la censure

Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».

Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».

« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :

« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».

Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.

☕️ Le CNRS va proposer son chatbot IA Emmy à ses agents et proscrire les autres

3 décembre 2025 à 14:11

Dans un email envoyé à ses agents le 2 décembre au soir qu’a obtenu Next, la direction du CNRS a annoncé l’ « ouverture d’Emmy, agent conversationnel en intelligence artificielle générative, pour les agents CNRS ».

Accessible via un portail du centre de recherche à partir du 16 décembre 2025, ce chatbot utilisera les modèles de Mistral AI, « grâce à un accord passé » avec l’entreprise, explique la DSI du CNRS.

Dans sa première version accessible aux agents, la DSI met en avant les fonctionnalités suivantes  :

  • traduction de textes en toutes langues ;
  • synthèses de documents ;
  • aide à la reformulation ;
  • aide à la réflexion ;
  • recherche sur le web ;
  • reconnaissance de textes et d’images ;
  • mode « raisonnement » : l’IA traite la question de l’utilisateur étape par étape afin de donner une réponse plus pertinente et plus complète ;
  • collections de documents : permet d’ajouter des documents externes pour contextualiser la réflexion (par exemple un chercheur peut télécharger ses publications pour permettre à l’IA de contextualiser et enrichir ses réponses).

Une page présentant le projet est en ligne depuis tout juste un an.

Le prénom féminin (comme Tay, Siri ou encore Alexa) utilisé pour ce chatbot est présenté comme une référence à la mathématicienne allemande Emmy Noether.

Dans son message, la DSI explique qu’ un « module de sensibilisation à l’intelligence artificielle ainsi que des recommandations d’usage de l’IA générative au CNRS » seront proposés aux agents « d’ici le 16 décembre pour garantir une utilisation d’Emmy dans un cadre sécurisé et adapté ».

Elle ajoute qu’une attestation de suivi de ce module devra être présentée pour accéder à Emmy et qu’ « au regard des risques avérés que présentent les autres outils d’IA en cloud public sur la confidentialité des données et la protection du patrimoine informationnel de l’établissement, tout autre outil d’agent conversationnel en IA générative sera désormais proscrit au CNRS ».

La direction du centre de recherche ne donne par contre pas d’information à ces agents sur le budget consacré à l’accord passé avec Mistral AI.

Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

3 décembre 2025 à 14:45
Agressions augmentées
Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

Trois personnes sont poursuivies par la police sud-coréenne pour avoir hacké plus de 120 000 caméras IP et s’être servi des flux vidéo récupérés pour produire et vendre des images à caractère sexuel.

Accusées d’avoir hacké plus de 120 000 caméras de foyers et d’entreprises et d’avoir utilisé les images récupérées pour fabriquer des contenus d’exploitation sexuelle, quatre personnes ont été arrêtées par la police sud-coréenne. Les contenus étaient ensuite diffusés sur des sites web à l’étranger.

Ce 30 novembre, la police a déclaré que les malfaiteurs avaient utilisé les vulnérabilités de caméras IP, notamment en recourant à des mots de passe simples, avec des répétitions de caractères ou des séries de chiffres consécutifs.

Création et diffusion de contenu d’exploitation sexuelle

Parmi les caméras touchées, certaines étaient installées dans des foyers privés, dans des salles de karaoké, dans un studio de pilates ou encore dans une clinique gynécologique, rapporte la BBC. Peu onéreux, ces objets sont utilisés partout sur la planète et présentent souvent des vulnérabilités.

Les auteurs du hack ont agi indépendamment les uns des autres, indique encore la police sud-coréenne. L’un est accusé d’avoir hacké 63 000 caméras, produit 545 vidéos d’exploitation sexuelle et d’avoir vendu l’équivalent de 35 millions de wons (plus de 20 000 euros) de ces contenus numériques. Un autre est poursuivi pour le hack de 70 000 caméras et la vente de 648 vidéos pour 18 millions de wons (plus de 10 500 euros). À eux deux, ils auraient produit 62 % des vidéos diffusées l’an dernier sur un site accusé de diffuser des captations illégales de flux issus de caméras IP.

L’un des suspects arrêtés est poursuivi pour avoir violé les lois locales en termes de hacking. Trois des quatre suspects risquent par ailleurs des poursuites pour la création et la vente des contenus à caractère sexuel, dont certaines impliquent des mineurs. Le quatrième a été relâché.

Un phénomène récurrent

Cachées dans les toilettes publiques, les hôtels, l’espace public… en Corée du Sud, les scandales provoqués par l’installation de caméras dans des lieux indus ou l’exploitation illégale des flux vidéo enregistrés se sont produits à répétition, ces dernières années, au point que les femmes descendent dans la rue pour protester contre le phénomène. Entre 2011 et 2022, la police a réalisé près de 50 000 arrestations liées à l’usage de caméras pour créer des contenus ouvertement sexuels, rapporte le New-York Times.

En 2024, le ministère coréen des Sciences alertait sur le fait que les caméras IP achetées hors du pays, et notamment en Chine, risquaient de présenter des failles de sécurité dans la mesure où elles ne remplissaient pas les obligations imposées par la loi coréenne.

Ce mardi, l’institution déclarait étudier une proposition de loi qui obligerait le blocage des caméras personnelles tant que leurs utilisateurs n’auraient pas mis en place un identifiant et un mot de passe complexes.

L’IA générative, « instrument de précision » pour la censure et la répression en Chine

3 décembre 2025 à 14:20
La grande murAI
L’IA générative, « instrument de précision » pour la censure et la répression en Chine

Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».

L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.

Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».

Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.

Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.

Une censure par le silence la plupart du temps

C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.

Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.

L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.

Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :

Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».

La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un ✔ représente l’existence de censure dans les réponses du modèle) :

« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.

Un marché concurrentiel de la censure

Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».

Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».

« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :

« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».

Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.

☕️ Le CNRS va proposer son chatbot IA Emmy à ses agents et proscrire les autres

3 décembre 2025 à 14:11

Dans un email envoyé à ses agents le 2 décembre au soir qu’a obtenu Next, la direction du CNRS a annoncé l’ « ouverture d’Emmy, agent conversationnel en intelligence artificielle générative, pour les agents CNRS ».

Accessible via un portail du centre de recherche à partir du 16 décembre 2025, ce chatbot utilisera les modèles de Mistral AI, « grâce à un accord passé » avec l’entreprise, explique la DSI du CNRS.

Dans sa première version accessible aux agents, la DSI met en avant les fonctionnalités suivantes  :

  • traduction de textes en toutes langues ;
  • synthèses de documents ;
  • aide à la reformulation ;
  • aide à la réflexion ;
  • recherche sur le web ;
  • reconnaissance de textes et d’images ;
  • mode « raisonnement » : l’IA traite la question de l’utilisateur étape par étape afin de donner une réponse plus pertinente et plus complète ;
  • collections de documents : permet d’ajouter des documents externes pour contextualiser la réflexion (par exemple un chercheur peut télécharger ses publications pour permettre à l’IA de contextualiser et enrichir ses réponses).

Une page présentant le projet est en ligne depuis tout juste un an.

Le prénom féminin (comme Tay, Siri ou encore Alexa) utilisé pour ce chatbot est présenté comme une référence à la mathématicienne allemande Emmy Noether.

Dans son message, la DSI explique qu’ un « module de sensibilisation à l’intelligence artificielle ainsi que des recommandations d’usage de l’IA générative au CNRS » seront proposés aux agents « d’ici le 16 décembre pour garantir une utilisation d’Emmy dans un cadre sécurisé et adapté ».

Elle ajoute qu’une attestation de suivi de ce module devra être présentée pour accéder à Emmy et qu’ « au regard des risques avérés que présentent les autres outils d’IA en cloud public sur la confidentialité des données et la protection du patrimoine informationnel de l’établissement, tout autre outil d’agent conversationnel en IA générative sera désormais proscrit au CNRS ».

La direction du centre de recherche ne donne par contre pas d’information à ces agents sur le budget consacré à l’accord passé avec Mistral AI.

La crise de la NAND franchit un nouveau cap, que Transcend prend de plein fouet !

Les regards en ce moment sont assez logiquement tournés principalement vers la montée vertigineuse des prix de la DRAM, mais il ne faut pas oublier que la NAND est également impactée par cette situation. Quand on regarde les tarifs actuels des SSD sur le marché, on pourrait avoir l'impression que to...

❌