Vue lecture

L’IA générative, « instrument de précision » pour la censure et la répression en Chine

La grande murAI
L’IA générative, « instrument de précision » pour la censure et la répression en Chine

Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».

L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.

Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».

Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.

Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.

Une censure par le silence la plupart du temps

C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.

Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.

L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.

Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :

Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».

La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un ✔ représente l’existence de censure dans les réponses du modèle) :

« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.

Un marché concurrentiel de la censure

Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».

Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».

« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :

« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».

Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.

  •  

☕️ Le CNRS va proposer son chatbot IA Emmy à ses agents et proscrire les autres

Dans un email envoyé à ses agents le 2 décembre au soir qu’a obtenu Next, la direction du CNRS a annoncé l’ « ouverture d’Emmy, agent conversationnel en intelligence artificielle générative, pour les agents CNRS ».

Accessible via un portail du centre de recherche à partir du 16 décembre 2025, ce chatbot utilisera les modèles de Mistral AI, « grâce à un accord passé » avec l’entreprise, explique la DSI du CNRS.

Dans sa première version accessible aux agents, la DSI met en avant les fonctionnalités suivantes  :

  • traduction de textes en toutes langues ;
  • synthèses de documents ;
  • aide à la reformulation ;
  • aide à la réflexion ;
  • recherche sur le web ;
  • reconnaissance de textes et d’images ;
  • mode « raisonnement » : l’IA traite la question de l’utilisateur étape par étape afin de donner une réponse plus pertinente et plus complète ;
  • collections de documents : permet d’ajouter des documents externes pour contextualiser la réflexion (par exemple un chercheur peut télécharger ses publications pour permettre à l’IA de contextualiser et enrichir ses réponses).

Une page présentant le projet est en ligne depuis tout juste un an.

Le prénom féminin (comme Tay, Siri ou encore Alexa) utilisé pour ce chatbot est présenté comme une référence à la mathématicienne allemande Emmy Noether.

Dans son message, la DSI explique qu’ un « module de sensibilisation à l’intelligence artificielle ainsi que des recommandations d’usage de l’IA générative au CNRS » seront proposés aux agents « d’ici le 16 décembre pour garantir une utilisation d’Emmy dans un cadre sécurisé et adapté ».

Elle ajoute qu’une attestation de suivi de ce module devra être présentée pour accéder à Emmy et qu’ « au regard des risques avérés que présentent les autres outils d’IA en cloud public sur la confidentialité des données et la protection du patrimoine informationnel de l’établissement, tout autre outil d’agent conversationnel en IA générative sera désormais proscrit au CNRS ».

La direction du centre de recherche ne donne par contre pas d’information à ces agents sur le budget consacré à l’accord passé avec Mistral AI.

  •  

L’IA générative, « instrument de précision » pour la censure et la répression en Chine

La grande murAI
L’IA générative, « instrument de précision » pour la censure et la répression en Chine

Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».

L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.

Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».

Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.

Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.

Une censure par le silence la plupart du temps

C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.

Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.

L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.

Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :

Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».

La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un ✔ représente l’existence de censure dans les réponses du modèle) :

« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.

Un marché concurrentiel de la censure

Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».

Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».

« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :

« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».

Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.

  •  

☕️ Le CNRS va proposer son chatbot IA Emmy à ses agents et proscrire les autres

Dans un email envoyé à ses agents le 2 décembre au soir qu’a obtenu Next, la direction du CNRS a annoncé l’ « ouverture d’Emmy, agent conversationnel en intelligence artificielle générative, pour les agents CNRS ».

Accessible via un portail du centre de recherche à partir du 16 décembre 2025, ce chatbot utilisera les modèles de Mistral AI, « grâce à un accord passé » avec l’entreprise, explique la DSI du CNRS.

Dans sa première version accessible aux agents, la DSI met en avant les fonctionnalités suivantes  :

  • traduction de textes en toutes langues ;
  • synthèses de documents ;
  • aide à la reformulation ;
  • aide à la réflexion ;
  • recherche sur le web ;
  • reconnaissance de textes et d’images ;
  • mode « raisonnement » : l’IA traite la question de l’utilisateur étape par étape afin de donner une réponse plus pertinente et plus complète ;
  • collections de documents : permet d’ajouter des documents externes pour contextualiser la réflexion (par exemple un chercheur peut télécharger ses publications pour permettre à l’IA de contextualiser et enrichir ses réponses).

Une page présentant le projet est en ligne depuis tout juste un an.

Le prénom féminin (comme Tay, Siri ou encore Alexa) utilisé pour ce chatbot est présenté comme une référence à la mathématicienne allemande Emmy Noether.

Dans son message, la DSI explique qu’ un « module de sensibilisation à l’intelligence artificielle ainsi que des recommandations d’usage de l’IA générative au CNRS » seront proposés aux agents « d’ici le 16 décembre pour garantir une utilisation d’Emmy dans un cadre sécurisé et adapté ».

Elle ajoute qu’une attestation de suivi de ce module devra être présentée pour accéder à Emmy et qu’ « au regard des risques avérés que présentent les autres outils d’IA en cloud public sur la confidentialité des données et la protection du patrimoine informationnel de l’établissement, tout autre outil d’agent conversationnel en IA générative sera désormais proscrit au CNRS ».

La direction du centre de recherche ne donne par contre pas d’information à ces agents sur le budget consacré à l’accord passé avec Mistral AI.

  •  

Le gouvernement indien impose la préinstallation d’une application sur les smartphones

Modi's eye
Le gouvernement indien impose la préinstallation d’une application sur les smartphones

Le gouvernement Modi veut que les fabricants de smartphones préinstallent son app Sanchar Saathi, présentée comme une app de cybersécurité, notamment contre les fraudes. Le tollé politique pourrait faire reculer l’interdiction initiale de la désinstaller. Quoiqu’il en soit, Apple ne devrait pas se plier à cette demande, que l’entreprise estime créer des problèmes de confidentialité et de sécurité.

Le 28 novembre dernier, le ministre indien des Communications, Jyotiraditya Scindia, a ordonné aux fabricants et importateurs de smartphones destinés à l’Inde d’installer l’application ministérielle Sanchar Saathi, a révélé l’agence de presse Reuters ce 1er décembre.

Une application gouvernementale obligatoire présentée comme anti-fraude

Dans un communiqué publié le même jour, le ministère assure que cette app est pensée « pour lutter contre l’utilisation abusive des ressources de télécommunication à des fins de cyberfraude et garantir la cybersécurité des télécommunications ». L’application est disponible sur Google Play et l’Apple Store indien et se présente comme « visant à autonomiser les abonnés mobiles, à renforcer leur sécurité et à sensibiliser le public aux initiatives citoyennes ».

Cette décision fait pourtant penser à celle prise par la Russie, d’obliger les distributeurs de smartphones à préinstaller le magasin d’applications RuStore et l’application de chat Max.

D’autant que, dans son communiqué, le ministère indien explique que les fabricants et importateurs ne doivent pas seulement préinstaller Sanchar Saathi, ils doivent aussi veiller à ce qu’elle soit « facilement visible et accessible aux utilisateurs finaux lors de la première utilisation ou de la configuration de l’appareil et que ses fonctionnalités ne soient pas désactivées ou restreintes ».

Critiques et marche arrière du ministre

L’information a fait réagir dans le pays dirigé par Narendra Modi. « Ce serait comme vivre dans une dictature moderne », explique par exemple Apar Gupta, fondateur de l’ONG indienne Internet Freedom Foundation interrogé par The Wire.

Face aux critiques, le gouvernement semble faire quelques pas en arrière. Ainsi, The Wire rapporte que Jyotiraditya Scindia a assuré que « vous pouvez activer ou désactiver la surveillance des appels selon votre souhait. Si vous souhaitez la conserver dans votre téléphone, gardez-la. Si vous souhaitez la supprimer, faites-le ».

Dans une autre déclaration, le ministre affirme, toujours selon The Wire, « Si vous ne souhaitez pas utiliser Sanchar Saathi, vous pouvez le supprimer. Il s’agit d’une option facultative… Il s’agit de protéger les clients. Je tiens à dissiper tout malentendu… Il est de notre devoir de présenter cette application à tout le monde. C’est à l’utilisateur de décider s’il souhaite la conserver sur son appareil ou non… Elle peut être supprimée du téléphone portable comme n’importe quelle autre application ». Mais nos confrères indiens soulignent que ces déclarations sont en contradiction avec le communiqué de presse du ministère et avec les demandes envoyées aux fabricants.

Concernant les fabricants justement, Apple ne semble pas décidée à suivre la demande du gouvernement indien. C’est en tout cas ce que plusieurs sources internes ont assuré à Reuters. L’agence de presse explique que l’entreprise à la pomme va répondre à l’exécutif indien qu’elle ne suit nulle part dans le monde ce genre d’obligation, car cela soulève des problèmes liés à la confidentialité et à la sécurité pour iOS.

Rappelons qu’en Russie, Apple a suspendu ses ventes en 2022 suite à l’invasion de l’Ukraine et à l’embargo mis en place. Elle n’a donc pas à se conformer à la nouvelle loi obligeant la préinstallation de RuStore (Apple ne s’est néanmoins pas opposée à l’arrivée de ce magasin d’applications dans l’Apple Store local).

  •  

Le gouvernement indien impose la préinstallation d’une application sur les smartphones

Modi's eye
Le gouvernement indien impose la préinstallation d’une application sur les smartphones

Le gouvernement Modi veut que les fabricants de smartphones préinstallent son app Sanchar Saathi, présentée comme une app de cybersécurité, notamment contre les fraudes. Le tollé politique pourrait faire reculer l’interdiction initiale de la désinstaller. Quoiqu’il en soit, Apple ne devrait pas se plier à cette demande, que l’entreprise estime créer des problèmes de confidentialité et de sécurité.

Le 28 novembre dernier, le ministre indien des Communications, Jyotiraditya Scindia, a ordonné aux fabricants et importateurs de smartphones destinés à l’Inde d’installer l’application ministérielle Sanchar Saathi, a révélé l’agence de presse Reuters ce 1er décembre.

Une application gouvernementale obligatoire présentée comme anti-fraude

Dans un communiqué publié le même jour, le ministère assure que cette app est pensée « pour lutter contre l’utilisation abusive des ressources de télécommunication à des fins de cyberfraude et garantir la cybersécurité des télécommunications ». L’application est disponible sur Google Play et l’Apple Store indien et se présente comme « visant à autonomiser les abonnés mobiles, à renforcer leur sécurité et à sensibiliser le public aux initiatives citoyennes ».

Cette décision fait pourtant penser à celle prise par la Russie, d’obliger les distributeurs de smartphones à préinstaller le magasin d’applications RuStore et l’application de chat Max.

D’autant que, dans son communiqué, le ministère indien explique que les fabricants et importateurs ne doivent pas seulement préinstaller Sanchar Saathi, ils doivent aussi veiller à ce qu’elle soit « facilement visible et accessible aux utilisateurs finaux lors de la première utilisation ou de la configuration de l’appareil et que ses fonctionnalités ne soient pas désactivées ou restreintes ».

Critiques et marche arrière du ministre

L’information a fait réagir dans le pays dirigé par Narendra Modi. « Ce serait comme vivre dans une dictature moderne », explique par exemple Apar Gupta, fondateur de l’ONG indienne Internet Freedom Foundation interrogé par The Wire.

Face aux critiques, le gouvernement semble faire quelques pas en arrière. Ainsi, The Wire rapporte que Jyotiraditya Scindia a assuré que « vous pouvez activer ou désactiver la surveillance des appels selon votre souhait. Si vous souhaitez la conserver dans votre téléphone, gardez-la. Si vous souhaitez la supprimer, faites-le ».

Dans une autre déclaration, le ministre affirme, toujours selon The Wire, « Si vous ne souhaitez pas utiliser Sanchar Saathi, vous pouvez le supprimer. Il s’agit d’une option facultative… Il s’agit de protéger les clients. Je tiens à dissiper tout malentendu… Il est de notre devoir de présenter cette application à tout le monde. C’est à l’utilisateur de décider s’il souhaite la conserver sur son appareil ou non… Elle peut être supprimée du téléphone portable comme n’importe quelle autre application ». Mais nos confrères indiens soulignent que ces déclarations sont en contradiction avec le communiqué de presse du ministère et avec les demandes envoyées aux fabricants.

Concernant les fabricants justement, Apple ne semble pas décidée à suivre la demande du gouvernement indien. C’est en tout cas ce que plusieurs sources internes ont assuré à Reuters. L’agence de presse explique que l’entreprise à la pomme va répondre à l’exécutif indien qu’elle ne suit nulle part dans le monde ce genre d’obligation, car cela soulève des problèmes liés à la confidentialité et à la sécurité pour iOS.

Rappelons qu’en Russie, Apple a suspendu ses ventes en 2022 suite à l’invasion de l’Ukraine et à l’embargo mis en place. Elle n’a donc pas à se conformer à la nouvelle loi obligeant la préinstallation de RuStore (Apple ne s’est néanmoins pas opposée à l’arrivée de ce magasin d’applications dans l’Apple Store local).

  •  

IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

Culture vs numérique : the neverending war
IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

Poussée par les différentes organisations d’ayants droit de la culture comme de la presse, la ministre de la Culture Rachida Dati évoque l’idée d’une loi pour encadrer spécifiquement l’utilisation de tous types de contenus par les entreprises d’IA.

Après plusieurs réunions entre les entreprises d’IA et les organisations d’ayants droit, ces dernières sont ressorties déçues et l’ont fait savoir à la ministre de la Culture Rachida Dati. Allant dans leur sens, celle-ci propose maintenant de légiférer, notamment pour imposer un mode de rémunération.

Un cycle de réunions avait été lancé début juin par Rachida Dati et Clara Chappaz (alors ministre déléguée du Numérique) entre, d’un côté, des acteurs de l’IA comme Google, Mistral et OpenAI et de l’autre, quinze organisations d’ayants droit comme la Sacem, la SACD ou encore l’Alliance de la presse d’information générale (APIG) et le Syndicat de la presse indépendante d’information en ligne (Spiil).

Un dialogue peu productif

Mais, selon les Échos, aucune réelle discussion n’a réellement été enclenchée. « La belle idée était illusoire. Pour discuter, il faut être deux », déclarait Pierre Petillault, directeur général de l’Apig, à notre consœur des Echos, déplorant l’absence d’ouverture du côté des entreprises d’IA générative.

Le 18 novembre dernier, les quinze organisations d’ayants droit ont fait part à la ministre de la Culture de leur impatience dans une lettre obtenue par Contexte. « En dépit d’échanges parfois intéressants, ce processus n’a pas permis de dégager des solutions concrètes pour faciliter la négociation d’accords de licences », affirment-elles notamment.

Elles y demandaient à Rachida Dati des « solutions législatives fondées sur les recommandations du rapport du CSPLA [Conseil supérieur de la propriété littéraire et artistique] sur la rémunération des contenus culturels par les systèmes d’IA ». Commandé par son ministère, le rapport est le produit de la mission conduite par Alexandra Bensamoun et Joëlle Farchy, qui a rendu deux volets (une partie économique et une partie juridique) en juillet dernier.

Rachida Dati et des sénateurs de plusieurs partis sur la même longueur d’onde que les ayants droit

Rachida Dati a réagi exactement dans ce sens dans un communiqué de presse ce 28 novembre. Le ministère y juge que les accords qui existent sont « insuffisants pour assurer la juste rémunération des œuvres et contenus utilisés pour l’entraînement des modèles d’IA ». Il lui apparait « dès lors pleinement légitime que les pouvoirs publics envisagent des actions, y compris de nature législative comme celles évoquées dans le cadre des missions conduites au Conseil supérieur de la propriété littéraire et artistique ».

Le ministère explique même envisager la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ». En effet, la partie juridique du rapport du CSPLA [PDF] a proposé une solution pour « réintégrer les titulaires dans leurs droits en l’absence d’une transparence suffisante ». De fait, le rapport propose d’établir une « présomption d’utilisation ou d’exploitation » en se basant sur quelques indices (comme le fait que l’extrait d’un texte soit recraché par l’IA générative incriminée, par exemple).

Selon les Échos, une proposition de loi est aussi envisagée par les sénatrices Agnès Evren (Les Républicains), Laure Darcos (LIOT) et le sénateur Pierre Ouzoulias (PCF) pour un dépôt en décembre.

  •  

IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

Culture vs numérique : the neverending war
IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

Poussée par les différentes organisations d’ayants droit de la culture comme de la presse, la ministre de la Culture Rachida Dati évoque l’idée d’une loi pour encadrer spécifiquement l’utilisation de tous types de contenus par les entreprises d’IA.

Après plusieurs réunions entre les entreprises d’IA et les organisations d’ayants droit, ces dernières sont ressorties déçues et l’ont fait savoir à la ministre de la Culture Rachida Dati. Allant dans leur sens, celle-ci propose maintenant de légiférer, notamment pour imposer un mode de rémunération.

Un cycle de réunions avait été lancé début juin par Rachida Dati et Clara Chappaz (alors ministre déléguée du Numérique) entre, d’un côté, des acteurs de l’IA comme Google, Mistral et OpenAI et de l’autre, quinze organisations d’ayants droit comme la Sacem, la SACD ou encore l’Alliance de la presse d’information générale (APIG) et le Syndicat de la presse indépendante d’information en ligne (Spiil).

Un dialogue peu productif

Mais, selon les Échos, aucune réelle discussion n’a réellement été enclenchée. « La belle idée était illusoire. Pour discuter, il faut être deux », déclarait Pierre Petillault, directeur général de l’Apig, à notre consœur des Echos, déplorant l’absence d’ouverture du côté des entreprises d’IA générative.

Le 18 novembre dernier, les quinze organisations d’ayants droit ont fait part à la ministre de la Culture de leur impatience dans une lettre obtenue par Contexte. « En dépit d’échanges parfois intéressants, ce processus n’a pas permis de dégager des solutions concrètes pour faciliter la négociation d’accords de licences », affirment-elles notamment.

Elles y demandaient à Rachida Dati des « solutions législatives fondées sur les recommandations du rapport du CSPLA [Conseil supérieur de la propriété littéraire et artistique] sur la rémunération des contenus culturels par les systèmes d’IA ». Commandé par son ministère, le rapport est le produit de la mission conduite par Alexandra Bensamoun et Joëlle Farchy, qui a rendu deux volets (une partie économique et une partie juridique) en juillet dernier.

Rachida Dati et des sénateurs de plusieurs partis sur la même longueur d’onde que les ayants droit

Rachida Dati a réagi exactement dans ce sens dans un communiqué de presse ce 28 novembre. Le ministère y juge que les accords qui existent sont « insuffisants pour assurer la juste rémunération des œuvres et contenus utilisés pour l’entraînement des modèles d’IA ». Il lui apparait « dès lors pleinement légitime que les pouvoirs publics envisagent des actions, y compris de nature législative comme celles évoquées dans le cadre des missions conduites au Conseil supérieur de la propriété littéraire et artistique ».

Le ministère explique même envisager la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ». En effet, la partie juridique du rapport du CSPLA [PDF] a proposé une solution pour « réintégrer les titulaires dans leurs droits en l’absence d’une transparence suffisante ». De fait, le rapport propose d’établir une « présomption d’utilisation ou d’exploitation » en se basant sur quelques indices (comme le fait que l’extrait d’un texte soit recraché par l’IA générative incriminée, par exemple).

Selon les Échos, une proposition de loi est aussi envisagée par les sénatrices Agnès Evren (Les Républicains), Laure Darcos (LIOT) et le sénateur Pierre Ouzoulias (PCF) pour un dépôt en décembre.

  •  

Une conférence scientifique sur l’IA polluée par l’IA générative et une fuite d’API

Open(AI)Review
Une conférence scientifique sur l’IA polluée par l’IA générative et une fuite d’API

L’une des conférences scientifiques les plus importantes en machine learning, la ICLR, doit faire face à plusieurs problèmes : le recours à l’IA générative pour rédiger des articles scientifiques (ainsi que leurs relectures par les pairs), mais aussi une fuite des noms des relecteurs censés être anonymes.

L’International Conference on Learning Representations (ICLR) doit avoir lieu en avril 2026 au Brésil à Rio. C’est la treizième du nom et la conférence est l’une des plus importantes dans le milieu. Elle a été co-fondée en 2013 par deux chercheurs influents : Yoshua Bengio et Yann LeCun.

La fin de la semaine dernière n’a pas été de tout repos pour les chercheurs qui la gèrent. En effet, elle doit faire face à une controverse sur l’utilisation de l’IA générative pour soumettre des articles scientifiques mais aussi pour leur relecture censée être faite par les pairs. Une fuite de l’API du site de gestion de relecture par les pairs, qui permettait à tous de connaitre l’identité des relecteurs, a par ailleurs été découverte.

Un article 100 % généré par IA et bourré d’erreurs a obtenu une bonne note

Depuis le début, ICLR s’appuie sur la plateforme de relecture par les pairs Openreview, qui elle-même est l’application d’un « modèle de publication » proposé en 2009 par Yann LeCun, « basé sur un dépôt ouvert et des évaluations ouvertes (mais anonymes), qui crée un « marché » entre les articles et les entités chargées de leur évaluation ».


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Alors que « portable en pause » rame au collège, Emmanuel Macron veut l’étendre au lycée

Mode avion
Alors que « portable en pause » rame au collège, Emmanuel Macron veut l’étendre au lycée

Lors d’un entretien avec un panel de lecteurs du groupe de presse EBRA, Emmanuel Macron a affiché sa volonté que le dispositif « portable en pause » applicable actuellement au collège (mais peu mis en place jusqu’à présent) soit étendu au lycée. Pour cela, une loi devra être présentée et votée au Parlement.

En déplacement à Mirecourt près d’Épinal ce vendredi 28 novembre pour répondre aux lecteurs de Vosges Matin, Emmanuel Macron a répété sa volonté d’éloigner les téléphones portables des établissements scolaires en évoquant leur potentielle interdiction dans les lycées « à la rentrée prochaine ».

Empêché d’être le « maitre des horloges » au Parlement suite à la dissolution de l’Assemblée nationale en 2024, Emmanuel Macron effectue une tournée nationale organisée avec plusieurs rédactions de la presse quotidienne régionale. Le président de la République y aborde régulièrement le sujet du numérique. Ainsi, il avait déjà évoqué la possibilité qu’il quitte la plateforme X le 12 novembre dernier face aux lecteurs de la Dépêche du Midi. 15 jours après, il n’a pas encore franchi le pas.

Aujourd’hui, face aux lecteurs de Vosges Matin, Emmanuel Macron a affirmé : « On a sorti le portable du collège, maintenant dans tous les collèges à la rentrée dernière, on va sans doute l’élargir aux lycées à la rentrée prochaine avec le ministre. Il est en train de regarder ça », estimant que l’interdiction est la manière la plus efficace « si on considère qu’il y a un vrai risque ».

Un long chemin de croix pour l’interdiction du portable au collège

Concernant la sortie du portable au collège, ce n’est pas encore tout à fait le cas, contrairement à ce qu’affirme le Président. Comme nous le disions en 2017 déjà, l’article L511-5 du Code de l’éducation prévoit depuis 2010 que « dans les écoles maternelles, les écoles élémentaires et les collèges, l’utilisation durant toute activité d’enseignement et dans les lieux prévus par le règlement intérieur, par un élève, d’un téléphone mobile est interdite », mais son application n’est pas si simple. À l’époque, Jean-Michel Blanquer promettait de « faire respecter les règles et le droit ».

Mais en 2025, le dossier n’est pas encore résolu. En avril dernier, Élisabeth Borne a annoncé qu’elle souhaitait que la « pause numérique » – l’interdiction pour les élèves d’utiliser leur smartphone au sein de l’établissement – soit « généralisée à tous les collèges à la prochaine rentrée ». Mais, en septembre, selon le syndicat majoritaire des chefs d’établissement SNPDEN-UNSA cité par le Monde, seuls 9 % des collèges avaient mis en place le dispositif.

Début novembre, en réponse à une question sur le nombre de collèges appliquant le dispositif de la sénatrice Les Républicains Agnès Evren, le nouveau ministre de l’Éducation nationale, Édouard Geffray, répondait de manière évasive : « je ne peux que souscrire à l’idée de mettre le portable en pause et d’installer des casiers de stockage lorsque c’est possible, mais je rappelle que la première pause du portable est l’interdiction, qu’il nous revient de faire respecter. Je ne peux que me réjouir des cas où il est possible de conforter l’interdiction avec des installations spécifiques, mais je ne peux pas imposer aux départements d’acquérir des casiers. Plusieurs centaines d’établissements fonctionnent ainsi, avec des retours qui laissent apparaître une nette satisfaction ».

Une volonté présidentielle qui n’est pas encore inscrite dans la loi

Le portable n’est donc pas encore sorti des collèges, même si, selon France Info, Emmanuel Macron estime que l’interdiction dans les collèges « marche plutôt bien, parce que c’est une interdiction nationale, c’est assumé ».

Pour ce qui est des lycées, Édouard Geffray semble donc être « en train de regarder ça », selon le président de la République. Mais il faut qu’un texte législatif soit voté avant qu’il puisse être appliqué « à la rentrée prochaine ».

La députée Renaissance Laure Miller a déposé le mardi 18 novembre 2025 une proposition de loi « visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » qui propose, entre autres, d’ « étendre aux lycées l’interdiction de l’utilisation des téléphones portables, dans les mêmes conditions que dans les autres établissements scolaires ». Reste à ce que l’article en question ainsi que la loi soient votés par l’Assemblée nationale et le Sénat, et que les décrets soient promulgués avant la rentrée 2026.

  •  

Alors que « portable en pause » rame au collège, Emmanuel Macron veut l’étendre au lycée

Mode avion
Alors que « portable en pause » rame au collège, Emmanuel Macron veut l’étendre au lycée

Lors d’un entretien avec un panel de lecteurs du groupe de presse EBRA, Emmanuel Macron a affiché sa volonté que le dispositif « portable en pause » applicable actuellement au collège (mais peu mis en place jusqu’à présent) soit étendu au lycée. Pour cela, une loi devra être présentée et votée au Parlement.

En déplacement à Mirecourt près d’Épinal ce vendredi 28 novembre pour répondre aux lecteurs de Vosges Matin, Emmanuel Macron a répété sa volonté d’éloigner les téléphones portables des établissements scolaires en évoquant leur potentielle interdiction dans les lycées « à la rentrée prochaine ».

Empêché d’être le « maitre des horloges » au Parlement suite à la dissolution de l’Assemblée nationale en 2024, Emmanuel Macron effectue une tournée nationale organisée avec plusieurs rédactions de la presse quotidienne régionale. Le président de la République y aborde régulièrement le sujet du numérique. Ainsi, il avait déjà évoqué la possibilité qu’il quitte la plateforme X le 12 novembre dernier face aux lecteurs de la Dépêche du Midi. 15 jours après, il n’a pas encore franchi le pas.

Aujourd’hui, face aux lecteurs de Vosges Matin, Emmanuel Macron a affirmé : « On a sorti le portable du collège, maintenant dans tous les collèges à la rentrée dernière, on va sans doute l’élargir aux lycées à la rentrée prochaine avec le ministre. Il est en train de regarder ça », estimant que l’interdiction est la manière la plus efficace « si on considère qu’il y a un vrai risque ».

Un long chemin de croix pour l’interdiction du portable au collège

Concernant la sortie du portable au collège, ce n’est pas encore tout à fait le cas, contrairement à ce qu’affirme le Président. Comme nous le disions en 2017 déjà, l’article L511-5 du Code de l’éducation prévoit depuis 2010 que « dans les écoles maternelles, les écoles élémentaires et les collèges, l’utilisation durant toute activité d’enseignement et dans les lieux prévus par le règlement intérieur, par un élève, d’un téléphone mobile est interdite », mais son application n’est pas si simple. À l’époque, Jean-Michel Blanquer promettait de « faire respecter les règles et le droit ».

Mais en 2025, le dossier n’est pas encore résolu. En avril dernier, Élisabeth Borne a annoncé qu’elle souhaitait que la « pause numérique » – l’interdiction pour les élèves d’utiliser leur smartphone au sein de l’établissement – soit « généralisée à tous les collèges à la prochaine rentrée ». Mais, en septembre, selon le syndicat majoritaire des chefs d’établissement SNPDEN-UNSA cité par le Monde, seuls 9 % des collèges avaient mis en place le dispositif.

Début novembre, en réponse à une question sur le nombre de collèges appliquant le dispositif de la sénatrice Les Républicains Agnès Evren, le nouveau ministre de l’Éducation nationale, Édouard Geffray, répondait de manière évasive : « je ne peux que souscrire à l’idée de mettre le portable en pause et d’installer des casiers de stockage lorsque c’est possible, mais je rappelle que la première pause du portable est l’interdiction, qu’il nous revient de faire respecter. Je ne peux que me réjouir des cas où il est possible de conforter l’interdiction avec des installations spécifiques, mais je ne peux pas imposer aux départements d’acquérir des casiers. Plusieurs centaines d’établissements fonctionnent ainsi, avec des retours qui laissent apparaître une nette satisfaction ».

Une volonté présidentielle qui n’est pas encore inscrite dans la loi

Le portable n’est donc pas encore sorti des collèges, même si, selon France Info, Emmanuel Macron estime que l’interdiction dans les collèges « marche plutôt bien, parce que c’est une interdiction nationale, c’est assumé ».

Pour ce qui est des lycées, Édouard Geffray semble donc être « en train de regarder ça », selon le président de la République. Mais il faut qu’un texte législatif soit voté avant qu’il puisse être appliqué « à la rentrée prochaine ».

La députée Renaissance Laure Miller a déposé le mardi 18 novembre 2025 une proposition de loi « visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » qui propose, entre autres, d’ « étendre aux lycées l’interdiction de l’utilisation des téléphones portables, dans les mêmes conditions que dans les autres établissements scolaires ». Reste à ce que l’article en question ainsi que la loi soient votés par l’Assemblée nationale et le Sénat, et que les décrets soient promulgués avant la rentrée 2026.

  •  

Arnaques financières : les réseaux sociaux mis devant leurs responsabilités en Europe

Complicité de scam
Arnaques financières : les réseaux sociaux mis devant leurs responsabilités en Europe

Le Conseil et le Parlement européen ont trouvé un accord sur de nouvelles règles à propos de la fraude en ligne et l’utilisation abusive des données. Notamment, les plateformes devront faire face à leurs responsabilités si elles n’ont pas supprimé des contenus frauduleux signalés qui ont atteint des victimes.

« Historique : Nous nous attaquons à l’industrie de la fraude numérique », a exulté le député européen du Danemark Morten Løkkegaard (Renew) sur Facebook. « Le Parlement et le Conseil ont conclu un accord visant à rendre le secteur des services de paiement de l’UE plus ouvert et plus concurrentiel, tout en le dotant de solides défenses contre la fraude et les violations de données », explique la députée européenne Place publique sur X.

Ce jeudi 27 novembre, le Conseil et le Parlement européen ont annoncé s’être mis d’accord à propos de deux textes sur la régulation des paiements en ligne (le Payment Services Regulation et la directive Payment Services Directive 3, PSD3), comme l’a repéré Politico. Il reste une dernière étape pour qu’il puisse entrer en vigueur : une adoption formelle par les deux institutions.

Renfort de la coopération entre prestataires de services de paiement

Le Conseil de l’Europe explique que « l’objectif de ces nouvelles règles est de mieux lutter contre la fraude aux paiements, d’améliorer la transparence des frais et de renforcer la protection des consommateurs dans le secteur des services de paiement ». L’idée est de mettre à jour la législation européenne face aux nombreuses tentatives de phishings auxquelles nous faisons face.

Ces textes renforcent, entre autres, les obligations des prestataires de services de paiement concernant les fraudes : obligation de partager entre eux les informations sur des cas repérés mais aussi de vérifier les numéros IBAN avant tout virement (et pas seulement sur les virements instantanés en euros comme actuellement). Ils seront aussi tenus responsables s’ils n’ont pas mis en place certains outils préventifs face à la fraude.

Une attention obligatoire sur les signalements de fraude

Mais ces textes donnent aussi une responsabilité à d’autres acteurs jusque-là laissés tranquilles sur le sujet. Ainsi les réseaux sociaux seront responsables envers les prestataires de services de paiement qui auront remboursé des clients victimes de fraude si celle-ci a été effectuée en passant par un message publié sur leur plateforme qui aurait été préalablement signalé.

Le Parlement européen explique aussi que les annonceurs de services financiers vont devoir démontrer aux très grandes plateformes en ligne (VLOPs) et moteurs de recherche (VLOSE) qu’ils sont « légalement autorisés (ou officiellement exemptés) dans le pays concerné à offrir ces services, ou qu’ils font de la publicité pour le compte d’une personne qui l’est ».

Rappelons que des documents internes à Meta ont récemment révélé que le groupe de Mark Zuckerberg prévoit de générer 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars, à partir d’arnaques et de publicités frauduleuses.

Les négociateurs européens s’appuient notamment sur le DSA et le DMA pour établir ces nouvelles règles.

« Ce cadre complexe sape les efforts de simplification et risque d’entrer en conflit avec l’interdiction de la surveillance générale prévue par le DSA, ignorant ainsi les nombreuses études qui avertissent que cela serait contre-productif. Au lieu de protéger les consommateurs, le résultat obtenu aujourd’hui crée un dangereux précédent et décharge de leur responsabilité ceux qui sont les mieux placés pour prévenir la fraude », a réagi Leonardo Veneziani, représentant du lobby du numérique états-unien CCIA (regroupant notamment Amazon, Google, Apple, Meta et Shopify).

  •  

Arnaques financières : les réseaux sociaux mis devant leurs responsabilités en Europe

Complicité de scam
Arnaques financières : les réseaux sociaux mis devant leurs responsabilités en Europe

Le Conseil et le Parlement européen ont trouvé un accord sur de nouvelles règles à propos de la fraude en ligne et l’utilisation abusive des données. Notamment, les plateformes devront faire face à leurs responsabilités si elles n’ont pas supprimé des contenus frauduleux signalés qui ont atteint des victimes.

« Historique : Nous nous attaquons à l’industrie de la fraude numérique », a exulté le député européen du Danemark Morten Løkkegaard (Renew) sur Facebook. « Le Parlement et le Conseil ont conclu un accord visant à rendre le secteur des services de paiement de l’UE plus ouvert et plus concurrentiel, tout en le dotant de solides défenses contre la fraude et les violations de données », explique la députée européenne Place publique sur X.

Ce jeudi 27 novembre, le Conseil et le Parlement européen ont annoncé s’être mis d’accord à propos de deux textes sur la régulation des paiements en ligne (le Payment Services Regulation et la directive Payment Services Directive 3, PSD3), comme l’a repéré Politico. Il reste une dernière étape pour qu’il puisse entrer en vigueur : une adoption formelle par les deux institutions.

Renfort de la coopération entre prestataires de services de paiement

Le Conseil de l’Europe explique que « l’objectif de ces nouvelles règles est de mieux lutter contre la fraude aux paiements, d’améliorer la transparence des frais et de renforcer la protection des consommateurs dans le secteur des services de paiement ». L’idée est de mettre à jour la législation européenne face aux nombreuses tentatives de phishings auxquelles nous faisons face.

Ces textes renforcent, entre autres, les obligations des prestataires de services de paiement concernant les fraudes : obligation de partager entre eux les informations sur des cas repérés mais aussi de vérifier les numéros IBAN avant tout virement (et pas seulement sur les virements instantanés en euros comme actuellement). Ils seront aussi tenus responsables s’ils n’ont pas mis en place certains outils préventifs face à la fraude.

Une attention obligatoire sur les signalements de fraude

Mais ces textes donnent aussi une responsabilité à d’autres acteurs jusque-là laissés tranquilles sur le sujet. Ainsi les réseaux sociaux seront responsables envers les prestataires de services de paiement qui auront remboursé des clients victimes de fraude si celle-ci a été effectuée en passant par un message publié sur leur plateforme qui aurait été préalablement signalé.

Le Parlement européen explique aussi que les annonceurs de services financiers vont devoir démontrer aux très grandes plateformes en ligne (VLOPs) et moteurs de recherche (VLOSE) qu’ils sont « légalement autorisés (ou officiellement exemptés) dans le pays concerné à offrir ces services, ou qu’ils font de la publicité pour le compte d’une personne qui l’est ».

Rappelons que des documents internes à Meta ont récemment révélé que le groupe de Mark Zuckerberg prévoit de générer 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars, à partir d’arnaques et de publicités frauduleuses.

Les négociateurs européens s’appuient notamment sur le DSA et le DMA pour établir ces nouvelles règles.

« Ce cadre complexe sape les efforts de simplification et risque d’entrer en conflit avec l’interdiction de la surveillance générale prévue par le DSA, ignorant ainsi les nombreuses études qui avertissent que cela serait contre-productif. Au lieu de protéger les consommateurs, le résultat obtenu aujourd’hui crée un dangereux précédent et décharge de leur responsabilité ceux qui sont les mieux placés pour prévenir la fraude », a réagi Leonardo Veneziani, représentant du lobby du numérique états-unien CCIA (regroupant notamment Amazon, Google, Apple, Meta et Shopify).

  •  

Terres rares : des pistes pour une utilisation plus sobre

Creuser, mais proprement ?
Terres rares : des pistes pour une utilisation plus sobre

L’enjeu de l’utilisation des terres rares est crucial : industriel, technologique, géopolitique, économique, environnemental et sanitaire. Le CNRS a lancé une initiative pour établir l’état des connaissances scientifiques sur leur utilisation, les possibilités d’usages plus sobres, leur recyclage ainsi que de l’amélioration de leurs modes d’extraction.

Les « éléments de terres rares » (ETR), ou plus couramment nommés terres rares, sont quasiment partout dans nos appareils technologiques, du smartphone aux avions en passant par les voitures électriques mais surtout les éoliennes offshore.

Plus précisément, on les retrouve dans les aimants permanents des écouteurs intra-auriculaires, des véhicules électriques et des éoliennes offshore ou dans les poudres de polissage pour les verres optiques (lentilles, écrans plats, smartphones, etc.) ou les semi-conducteurs. Mais aussi dans les anodes des batteries NiMH utilisées dans les voitures hybrides ou les matériaux luminescents utilisés pour les LED de lumières blanches. D’autres usages existent aussi, même s’ils sont plus faibles : dans certains verres, dans les agents de contraste pour l’imagerie médicale ou comme catalyseurs dans l’industrie chimique.

L’accès à ces matériaux est rendu de plus en plus compliqué par les tensions géopolitiques, les enjeux commerciaux internationaux et même des négociations en temps de guerre.

Le CNRS a décidé de lancer une initiative pour faire le tour des connaissances scientifiques sur ces matériaux, de leurs usages, des éventuelles façons de s’en passer ou du moins de les utiliser en quantité réduite ou de les recycler. Le centre de recherche publie ainsi un document de 84 pages sur le sujet [PDF] mobilisant une équipe de 14 expertes et experts principaux aussi bien chimistes que géologues, écotoxicologues, philosophes, sociologues, juristes ou physiciens.

Des réserves surtout situées en Chine et au Brésil

Ils y rappellent d’abord que ces 17 éléments chimiques sont des matériaux stratégiques et critiques, mais la plupart sont relativement abondants dans la croûte terrestre. Seul le scandium ne se trouve pas avec les autres ETR dans les environnements géologiques. « Il représente donc des ressources et des marchés distincts », expliquent les chercheurs qui l’ont exclu de leur étude.

« En 2017, les ressources mondiales en ETR sont estimées à 478,14 millions de tonnes (Mt) « d’oxydes d’ETR équivalents » ». On parle en « oxydes d’ETR équivalents » de façon standardisée même si les ressources ne contiennent pas d’oxydes d’ETR réellement produits. Mais, sur ces 478,14 millions de tonnes, en 2025, environ 100 millions de tonnes sont des ressources réellement exploitables (appelées réserves en géologie).

Elles sont réparties inéquitablement sur le globe avec deux pays qui concentrent les réserves : la Chine (44 %) et le Brésil (21 %) :

D’où les capacités importantes de la Chine à imposer des restrictions mais aussi de drastiquement augmenter sa production comme depuis 2019 :

Les chercheurs expliquent que nos besoins en ressources « ne peuvent être assurés uniquement par une relance de l’extraction sur le territoire national » et proposent donc « des usages plus responsables, qui réduisent notre dépendance à des approvisionnements étrangers », avec trois pistes : réduire, recycler, extraire autrement.

Des terres rares souvent pas indispensables mais accélératrices de performances

Concernant la réduction de leur utilisation, les chercheurs remarquent que les terres rares ne sont souvent pas indispensables pour le fonctionnement du produit dans lequel ils sont utilisés. Elles peuvent « faire l’objet d’une substitution dans la plupart des usages mais souvent au prix de compromis sur les performances des matériaux et dispositifs ».


Il reste 49% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

L’IA générative dans l’Éducation nationale : « pour l’instant, c’est du bricolage »

Et ils pompaient, pompaient…
L’IA générative dans l’Éducation nationale : « pour l’instant, c’est du bricolage »

Alors que le ministère de l’Éducation incite les enseignants à utiliser l’IA sans leur donner un réel cadre d’usage, les quelques enseignants qui l’utilisent doivent bricoler dans leur coin. Il n’y a pas d’outil à disposition pour enseigner leurs usages. Les programmes scolaires ne permettent pas de prendre le temps d’aborder les questions autour du fonctionnement de l’IA générative et des problématiques qui l’entourent.

Depuis l’arrivée de ChatGPT, le milieu de l’éducation se demande comment faire avec… ou sans. Les IA génératives ont remis en question, non seulement la manière dont les élèves peuvent percevoir l’enseignement en classe, mais aussi comment ils peuvent se percevoir eux-mêmes face à l’apprentissage : à quoi bon apprendre si une machine peut recracher pour nous en un instant un savoir qu’on nous demande de retranscrire dans les devoirs ?

De leur côté, les enseignants ont rapidement ressenti les difficultés de détecter un texte généré par IA et de le prouver ou d’adapter leur enseignement et le contrôle de connaissance pour ne pas se poser la question. Des recherches montrent aussi que, comme l’utilisation de l’IA dans les outils d’imagerie médicale fait baisser les capacités de détection du personnel médical, l’utilisation de l’IA dans l’apprentissage des maths en lycée booste les résultats avant de les voir régresser quand on demande aux élèves de s’en passer.

Une volonté de la hiérarchie d’y « aller à fond sur l’IA »

On pourrait se dire que l’intégration de l’IA générative au sein même de l’Éducation nationale via des cours permettrait d’adapter l’école à ce changement. Le ministère semble aller dans cette voie : « L’institution pousse, à l’heure actuelle, à expérimenter tous azimuts. Il y a des initiatives partout de plein de rectorats qui font des expérimentations IA », explique à Next Amélie Hart, secrétaire nationale du syndicat SNES-FSU et enseignante en lycée en Histoire-Géographie, mais sans réel cadre.

« Il y a une volonté de la hiérarchie de l’Éducation nationale à aller à fond sur les IA, y compris en étant hyper mal formés sur les enjeux de la protection des données (qui n’a pas commencé avec l’IA) », ajoute-t-elle. Sur le côté y aller à fond sans formation, on a un peu l’impression de revivre les périodes de confinement avec la « continuité pédagogique ». Cela soulevait les mêmes questions de protection des données et de souveraineté. Cinq ans plus tard, la leçon ne semble pas apprise.

Résultat, « pour l’instant, c’est du bricolage », estime Christophe Cailleaux, le coresponsable du groupe numérique du SNES-FSU, « tout le monde fait à sa sauce et dans son coin ».


Il reste 67% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

L’IA dans l’éducation, un cadrage par le ministère… sans réel cadre pour les enseignants

♩♫♩ ‎We don't need no thought control ♪ ♩ ♩
L’IA dans l’éducation, un cadrage par le ministère… sans réel cadre pour les enseignants

En septembre dernier, les enseignants et les élèves entamaient la quatrième année scolaire avec l’IA générative dans toutes les mains. Le ministère a proposé un « Cadre d’usage de l’IA en éducation » mais celui-ci est critiqué pour son manque de clarté et de praticité.

En novembre 2022, OpenAI lançait ChatGPT et, dès ce moment, beaucoup d’élèves et d’étudiants ont utilisé les nouvelles applications pour générer des réponses à leurs devoirs sans qu’ils ne reçoivent de réelle formation à propos de ces outils. Que ce soit pour en connaître leurs fonctionnements, leurs limites ou la façon de les utiliser. En tout cas, dans le cadre d’une structuration claire des savoirs pensée au sein de l’Éducation nationale.

En mai dernier, le ministère de l’Éducation nationale publiait un « Cadre d’usage de l’IA en éducation ». Celui-ci a pour objectif, selon le ministère, « d’apporter des réponses claires aux interrogations légitimes de l’ensemble de la communauté éducative et des agents sur l’usage de l’IA en éducation ». Dans sa présentation, l’institution ajoutait : « l’usage de l’IA est autorisé en éducation dès lors qu’il respecte le cadre défini ».

Pas de consignes claires sauf l’interdiction avant la quatrième

Le Cadre du ministère est un document d’une quinzaine de pages. Mais les premières pages sont surtout composées d’explications sur le pourquoi de ce document, de définitions de l’IA et d’un constat sur les potentialités et les risques dans l’usage de l’IA et évoquent des interrogations que soulèvent certains usages sans entrer dans les détails.

De réponses claires, le document en semble peu pourvu pour faire comprendre aux enseignants comment et quand utiliser l’IA de façon concrète.

Enfin, une chose y est quand même claire : pas d’utilisation pédagogique de l’IA à l’école avant la quatrième. Avant cette classe, les élèves doivent être sensibilisés mais ne peuvent toucher aux outils en classe. Après, l’utilisation de l’IA est autorisée « en lien avec les objectifs des programmes scolaires et du CRCN » (le « cadre de référence des compétences numériques » qui met en place des évaluations des compétences, notamment via les parcours Pix à passer en ligne).

Le ministère « se positionne dans un monde idéal »

Mais, « dans ce cadre d’usage, il n’y a pas de cadre », estime Amélie Hart, secrétaire nationale du syndicat SNES-FSU et enseignante en lycée en Histoire-Géographie, interrogée par Next. Pour elle, ce document devrait expliquer plus précisément les restrictions d’utilisation de l’IA dans l’enseignement.


Il reste 63% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Fuite de données concernant les utilisateurs de l’API d’OpenAI

L’entreprise de Sam Altman vient de publier un texte expliquant que les données d’utilisateurs de son API via l’OpenAI Platform ont fuité.

Selon OpenAI, cette fuite concerne :

  • Le nom fourni pour le compte API ;
  • l’adresse e-mail associée au compte API ;
  • la localisation approximative basée sur le navigateur de l’utilisateur API (ville, état, pays) ;
  • le système d’exploitation et le navigateur utilisés pour accéder au compte API ;
  • les sites web référents ;
  • les identifiants d’organisation ou d’utilisateur associés au compte API.

L’entreprise pointe du doigt un de ses sous-traitants : Mixpanel. Celui-ci se serait aperçu le 9 novembre qu’un pirate aurait eu accès à une partie de ses systèmes et exporté un ensemble de données. Mixpanel a informé OpenAI qu’elle enquêtait sur cette fuite et a ensuite partagé le jeu de données concerné avec le créateur de ChatGPT le 25 novembre.

OpenAI explique qu’elle continue à travailler sur le sujet avec MixPanel et d’autres partenaires mais que Mixpanel ne fait d’ores et déjà plus partie de ses sous-traitants.

Dans sa communication, OpenAI affirme qu’ « aucune conversation, requête API, donnée d’utilisation API, mot de passe, identifiant, clé API, détail de paiement ou pièce d’identité officielle n’a été compromis ou divulgué ».

Elle ajoute qu’elle ne recommande donc pas de réinitialisation de mot de passe ou de rotation des clés en réponse à cet incident. L’entreprise incite par contre ses utilisateurs à activer l’authentification multifacteur en tant que bonne pratique.

OpenAI assure qu’elle va informer tous les utilisateurs et organisations concernés individuellement et qu’elle reste en contact avec Mixpanel afin de déterminer les mesures à prendre.

  •  

☕️ Fuite de données concernant les utilisateurs de l’API d’OpenAI

L’entreprise de Sam Altman vient de publier un texte expliquant que les données d’utilisateurs de son API via l’OpenAI Platform ont fuité.

Selon OpenAI, cette fuite concerne :

  • Le nom fourni pour le compte API ;
  • l’adresse e-mail associée au compte API ;
  • la localisation approximative basée sur le navigateur de l’utilisateur API (ville, état, pays) ;
  • le système d’exploitation et le navigateur utilisés pour accéder au compte API ;
  • les sites web référents ;
  • les identifiants d’organisation ou d’utilisateur associés au compte API.

L’entreprise pointe du doigt un de ses sous-traitants : Mixpanel. Celui-ci se serait aperçu le 9 novembre qu’un pirate aurait eu accès à une partie de ses systèmes et exporté un ensemble de données. Mixpanel a informé OpenAI qu’elle enquêtait sur cette fuite et a ensuite partagé le jeu de données concerné avec le créateur de ChatGPT le 25 novembre.

OpenAI explique qu’elle continue à travailler sur le sujet avec MixPanel et d’autres partenaires mais que Mixpanel ne fait d’ores et déjà plus partie de ses sous-traitants.

Dans sa communication, OpenAI affirme qu’ « aucune conversation, requête API, donnée d’utilisation API, mot de passe, identifiant, clé API, détail de paiement ou pièce d’identité officielle n’a été compromis ou divulgué ».

Elle ajoute qu’elle ne recommande donc pas de réinitialisation de mot de passe ou de rotation des clés en réponse à cet incident. L’entreprise incite par contre ses utilisateurs à activer l’authentification multifacteur en tant que bonne pratique.

OpenAI assure qu’elle va informer tous les utilisateurs et organisations concernés individuellement et qu’elle reste en contact avec Mixpanel afin de déterminer les mesures à prendre.

  •  

☕️ HP licencie 10 % de ses salariés, Apple quelques dizaines dans son service commercial

De 4 000 à 6 000 postes seront supprimés chez HP d’ici la fin de l’année fiscale 2028, annonce l’entreprise (pdf).

HP affirme mettre en place son plan de restructuration en parallèle d’une adoption massive de l’IA en interne. « Nous pensons sincèrement qu’il s’agit d’une occasion unique à ne pas manquer pour poursuivre la transformation de l’entreprise et rester compétitifs pendant les 10 ou 20 prochaines années », affirme Enrique Lores, le CEO de HP, au Wall Street Journal.

Le journal économique états-unien affirme que l’entreprise prévoit également d’augmenter le prix de ses appareils – tout en réduisant la quantité de mémoire – et de travailler avec des fournisseurs moins chers.

Comme l’indique l’AFP, la bourse de New York a plutôt mal réagi à cette annonce conjuguée à la publication d’objectifs inférieurs aux attentes, avec une baisse des échanges post-clôture de 6 %.

De son côté, Apple prévoit quelques dizaines de licenciements dans son service commercial, notamment pour la vente des produits aux entreprises, aux établissements scolaires et aux administrations publiques, ce qui constitue un licenciement rare pour le fabricant de l’iPhone, explique Bloomberg.

  •  

☕️ HP licencie 10 % de ses salariés, Apple quelques dizaines dans son service commercial

De 4 000 à 6 000 postes seront supprimés chez HP d’ici la fin de l’année fiscale 2028, annonce l’entreprise (pdf).

HP affirme mettre en place son plan de restructuration en parallèle d’une adoption massive de l’IA en interne. « Nous pensons sincèrement qu’il s’agit d’une occasion unique à ne pas manquer pour poursuivre la transformation de l’entreprise et rester compétitifs pendant les 10 ou 20 prochaines années », affirme Enrique Lores, le CEO de HP, au Wall Street Journal.

Le journal économique états-unien affirme que l’entreprise prévoit également d’augmenter le prix de ses appareils – tout en réduisant la quantité de mémoire – et de travailler avec des fournisseurs moins chers.

Comme l’indique l’AFP, la bourse de New York a plutôt mal réagi à cette annonce conjuguée à la publication d’objectifs inférieurs aux attentes, avec une baisse des échanges post-clôture de 6 %.

De son côté, Apple prévoit quelques dizaines de licenciements dans son service commercial, notamment pour la vente des produits aux entreprises, aux établissements scolaires et aux administrations publiques, ce qui constitue un licenciement rare pour le fabricant de l’iPhone, explique Bloomberg.

  •