En ce début décembre, le ministère de l’Enseignement supérieur et de la Recherche a remis les prix de la science ouverte de l’année.
Plusieurs logiciels libres y ont été récompensés :
Le prix « scientifique et technique » a été attribué à GNU MPFR, « une bibliothèque libre (GPLv3) de calcul en virgule flottante avec précision arbitraire, reprenant les bonnes idées de la norme IEEE 754, comme l’arrondi correct » ;
le « coup de cœur » a mis en avant HyperSpy, « une bibliothèque libre pour Python, en licence GPLv3, qui aide les chercheurs en science des matériaux à analyser et visualiser des données complexes, telles que les ensembles de données multidimensionnels » ,
le prix de la documentation a été attribué au langage de programmation Pharo ;
et le prix de la communauté a été attribué à la version 3 d’Aladin Lite, un atlas du ciel interactif libre.
Conçu par le Centre de Données astronomiques de Strasbourg (CDS), celui-ci permet de se balader dans le ciel en visualisant des données astronomiques comme celles issues des observatoires européens Gaia ou Euclid :
Mais on peut l’utiliser aussi pour se balader sur Mars. « Simple à intégrer dans d’autres sites ou projets, il offre à tous – astronomes, physiciens, passionnés comme curieux – une porte d’entrée vers les richesses du ciel. Interopérable, un très grand nombre de portails web l’utilisent spontanément », explique le ministère. L’ESA, par exemple, utilise déjà Aladin lite pour son site ESAsky. Son code est accessible sur GitHub en licence GPL3.0 et une API est aussi disponible.
En ce début décembre, le ministère de l’Enseignement supérieur et de la Recherche a remis les prix de la science ouverte de l’année.
Plusieurs logiciels libres y ont été récompensés :
Le prix « scientifique et technique » a été attribué à GNU MPFR, « une bibliothèque libre (GPLv3) de calcul en virgule flottante avec précision arbitraire, reprenant les bonnes idées de la norme IEEE 754, comme l’arrondi correct » ;
le « coup de cœur » a mis en avant HyperSpy, « une bibliothèque libre pour Python, en licence GPLv3, qui aide les chercheurs en science des matériaux à analyser et visualiser des données complexes, telles que les ensembles de données multidimensionnels » ,
le prix de la documentation a été attribué au langage de programmation Pharo ;
et le prix de la communauté a été attribué à la version 3 d’Aladin Lite, un atlas du ciel interactif libre.
Conçu par le Centre de Données astronomiques de Strasbourg (CDS), celui-ci permet de se balader dans le ciel en visualisant des données astronomiques comme celles issues des observatoires européens Gaia ou Euclid :
Mais on peut l’utiliser aussi pour se balader sur Mars. « Simple à intégrer dans d’autres sites ou projets, il offre à tous – astronomes, physiciens, passionnés comme curieux – une porte d’entrée vers les richesses du ciel. Interopérable, un très grand nombre de portails web l’utilisent spontanément », explique le ministère. L’ESA, par exemple, utilise déjà Aladin lite pour son site ESAsky. Son code est accessible sur GitHub en licence GPL3.0 et une API est aussi disponible.
Le Reuters Institute publie un sondage mené auprès de journalistes britanniques entre aout et novembre 2024. Alors que promesse leur avait été faite que les tâches subalternes seraient minimisées grâce à l’IA, le constat est tout autre.
Le Reuters Institute for the Study of Journalism a conduit un sondage auprès de 1 004 journalistes britanniques entre aout et novembre 2024. Le think tank a publié la semaine dernière son analyse. Si les réponses datent déjà un peu dans un univers du numérique qui évolue très rapidement, on peut néanmoins y piocher quelques éléments intéressants quant à l’usage de l’IA dans les rédactions suite à la diffusion des LLM dans nos vies professionnelles.
Une adoption massive
On se rend compte, avec ce sondage, que les journalistes ont massivement adopté des outils intégrant l’IA puisque plus de la moitié (56 %) d’entre eux les utilisaient l’année dernière au moins de façon hebdomadaire et 27 % au quotidien :
Transcription, traduction et vérification grammaticales en tâches sous-traitées à l’IA générative
Quand on entre dans les détails des tâches effectuées avec l’aide de l’IA dans les rédactions, le Reuters Institute explique que les « trois utilisations les plus fréquentes concernent ce que l’on pourrait appeler le traitement du langage, en particulier la transcription/le sous-titrage (49 % utilisent l’IA pour cette tâche au moins une fois par mois), la traduction (33 %) et la vérification grammaticale/la relecture (30 %) ».
Quand on s’intéresse aux tâches des journalistes qui utilisent quotidiennement l’IA, celle qui revient en premier est la vérification grammaticale/la relecture (14 %), puis viennent la transcription/le sous-titrage (8 %), la traduction (5 %) puis à 4 % la recherche de sujets, le résumé d’infos et la génération d’une partie de l’article (le titre, par exemple).
L’IA générative n’efface pas les tâches subalternes
Mais ce qui est marquant, c’est que les journalistes qui utilisent l’IA de façon quotidienne sont ceux qui se plaignent le plus de travailler trop fréquemment sur des tâches subalternes. Cette classification est laissé à l’appréciation de chaque journaliste, il n’y a pas de définition précise.
Ainsi, 59 % des journalistes qui utilisent l’IA au quotidien et la moitié de ceux qui l’utilisent au moins une fois par mois trouvent qu’ils ont trop de tâches subalternes à accomplir alors que 37 % des journalistes britanniques qui n’utilisent jamais l’IA s’en plaignent :
Le Reuters Institute fait plusieurs hypothèses pour expliquer ces résultats. Avec l’IA, de nouvelles tâches subalternes seraient nécessaires comme le nettoyage des données, la création de prompts ou la vérification de ce qui a été généré. Une autre explication pourrait être que ce sont les journalistes qui estimaient avoir déjà trop de tâches subalternes qui utilisent l’IA pour s’en débarrasser.
Globalement, en 2024, les journalistes britanniques voyaient en l’IA générative plutôt une menace pour le journalisme (à 62 %) alors qu’une petite minorité de 15 % estimait que cette technologie était une vraie opportunité.
« Bien sûr, il est possible de considérer l’IA à la fois comme une menace importante ou très importante et comme une opportunité importante ou très importante, et c’est effectivement l’avis de 5 % des journalistes britanniques », remarque le Reuters Institute, « il convient également de noter que 29 % des journalistes britanniques ne considèrent l’IA ni comme une menace importante ni comme une opportunité importante ».
Quand le Reuters Institute leur a demandé quelles étaient les potentielles conséquences éthiques de l’utilisation de l’IA, ce qui arrive en premier est l’impact négatif sur la confiance du public dans le journalisme, suivi rapidement du manque de précision que ça pourrait engendrer ainsi que du manque d’originalité.
Concernant l’utilisation de l’IA à travers le genre et l’âge, on ne voit pas une différence si importante que ça. En effet, si l’utilisation de l’IA est un peu plus élevée chez les journalistes hommes, au final, les proportions d’utilisation sont proches entre les genres. Et si les jeunes journalistes de moins de 30 ans utilisent plus l’IA au quotidien, la différence entre générations n’est pas marquée :
Le Reuters Institute publie un sondage mené auprès de journalistes britanniques entre aout et novembre 2024. Alors que promesse leur avait été faite que les tâches subalternes seraient minimisées grâce à l’IA, le constat est tout autre.
Le Reuters Institute for the Study of Journalism a conduit un sondage auprès de 1 004 journalistes britanniques entre aout et novembre 2024. Le think tank a publié la semaine dernière son analyse. Si les réponses datent déjà un peu dans un univers du numérique qui évolue très rapidement, on peut néanmoins y piocher quelques éléments intéressants quant à l’usage de l’IA dans les rédactions suite à la diffusion des LLM dans nos vies professionnelles.
Une adoption massive
On se rend compte, avec ce sondage, que les journalistes ont massivement adopté des outils intégrant l’IA puisque plus de la moitié (56 %) d’entre eux les utilisaient l’année dernière au moins de façon hebdomadaire et 27 % au quotidien :
Transcription, traduction et vérification grammaticales en tâches sous-traitées à l’IA générative
Quand on entre dans les détails des tâches effectuées avec l’aide de l’IA dans les rédactions, le Reuters Institute explique que les « trois utilisations les plus fréquentes concernent ce que l’on pourrait appeler le traitement du langage, en particulier la transcription/le sous-titrage (49 % utilisent l’IA pour cette tâche au moins une fois par mois), la traduction (33 %) et la vérification grammaticale/la relecture (30 %) ».
Quand on s’intéresse aux tâches des journalistes qui utilisent quotidiennement l’IA, celle qui revient en premier est la vérification grammaticale/la relecture (14 %), puis viennent la transcription/le sous-titrage (8 %), la traduction (5 %) puis à 4 % la recherche de sujets, le résumé d’infos et la génération d’une partie de l’article (le titre, par exemple).
L’IA générative n’efface pas les tâches subalternes
Mais ce qui est marquant, c’est que les journalistes qui utilisent l’IA de façon quotidienne sont ceux qui se plaignent le plus de travailler trop fréquemment sur des tâches subalternes. Cette classification est laissé à l’appréciation de chaque journaliste, il n’y a pas de définition précise.
Ainsi, 59 % des journalistes qui utilisent l’IA au quotidien et la moitié de ceux qui l’utilisent au moins une fois par mois trouvent qu’ils ont trop de tâches subalternes à accomplir alors que 37 % des journalistes britanniques qui n’utilisent jamais l’IA s’en plaignent :
Le Reuters Institute fait plusieurs hypothèses pour expliquer ces résultats. Avec l’IA, de nouvelles tâches subalternes seraient nécessaires comme le nettoyage des données, la création de prompts ou la vérification de ce qui a été généré. Une autre explication pourrait être que ce sont les journalistes qui estimaient avoir déjà trop de tâches subalternes qui utilisent l’IA pour s’en débarrasser.
Globalement, en 2024, les journalistes britanniques voyaient en l’IA générative plutôt une menace pour le journalisme (à 62 %) alors qu’une petite minorité de 15 % estimait que cette technologie était une vraie opportunité.
« Bien sûr, il est possible de considérer l’IA à la fois comme une menace importante ou très importante et comme une opportunité importante ou très importante, et c’est effectivement l’avis de 5 % des journalistes britanniques », remarque le Reuters Institute, « il convient également de noter que 29 % des journalistes britanniques ne considèrent l’IA ni comme une menace importante ni comme une opportunité importante ».
Quand le Reuters Institute leur a demandé quelles étaient les potentielles conséquences éthiques de l’utilisation de l’IA, ce qui arrive en premier est l’impact négatif sur la confiance du public dans le journalisme, suivi rapidement du manque de précision que ça pourrait engendrer ainsi que du manque d’originalité.
Concernant l’utilisation de l’IA à travers le genre et l’âge, on ne voit pas une différence si importante que ça. En effet, si l’utilisation de l’IA est un peu plus élevée chez les journalistes hommes, au final, les proportions d’utilisation sont proches entre les genres. Et si les jeunes journalistes de moins de 30 ans utilisent plus l’IA au quotidien, la différence entre générations n’est pas marquée :
Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».
L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.
Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».
Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.
Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.
Une censure par le silence la plupart du temps
C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.
Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.
L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.
Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :
Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».
La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un représente l’existence de censure dans les réponses du modèle) :
« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.
Un marché concurrentiel de la censure
Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».
Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».
« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :
« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».
Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.
Dans un email envoyé à ses agents le 2 décembre au soir qu’a obtenu Next, la direction du CNRS a annoncé l’ « ouverture d’Emmy, agent conversationnel en intelligence artificielle générative, pour les agents CNRS ».
Accessible via un portail du centre de recherche à partir du 16 décembre 2025, ce chatbot utilisera les modèles de Mistral AI, « grâce à un accord passé » avec l’entreprise, explique la DSI du CNRS.
Dans sa première version accessible aux agents, la DSI met en avant les fonctionnalités suivantes :
traduction de textes en toutes langues ;
synthèses de documents ;
aide à la reformulation ;
aide à la réflexion ;
recherche sur le web ;
reconnaissance de textes et d’images ;
mode « raisonnement » : l’IA traite la question de l’utilisateur étape par étape afin de donner une réponse plus pertinente et plus complète ;
collections de documents : permet d’ajouter des documents externes pour contextualiser la réflexion (par exemple un chercheur peut télécharger ses publications pour permettre à l’IA de contextualiser et enrichir ses réponses).
Une page présentant le projet est en ligne depuis tout juste un an.
Le prénom féminin (comme Tay, Siri ou encore Alexa) utilisé pour ce chatbot est présenté comme une référence à la mathématicienne allemande Emmy Noether.
Dans son message, la DSI explique qu’ un « module de sensibilisation à l’intelligence artificielle ainsi que des recommandations d’usage de l’IA générative au CNRS » seront proposés aux agents « d’ici le 16 décembre pour garantir une utilisation d’Emmy dans un cadre sécurisé et adapté ».
Elle ajoute qu’une attestation de suivi de ce module devra être présentée pour accéder à Emmy et qu’ « au regard des risques avérés que présentent les autres outils d’IA en cloud public sur la confidentialité des données et la protection du patrimoine informationnel de l’établissement, tout autre outil d’agent conversationnel en IA générative sera désormais proscrit au CNRS ».
La direction du centre de recherche ne donne par contre pas d’information à ces agents sur le budget consacré à l’accord passé avec Mistral AI.
Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».
L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.
Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».
Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.
Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.
Une censure par le silence la plupart du temps
C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.
Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.
L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.
Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :
Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».
La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un représente l’existence de censure dans les réponses du modèle) :
« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.
Un marché concurrentiel de la censure
Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».
Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».
« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :
« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».
Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.
Dans un email envoyé à ses agents le 2 décembre au soir qu’a obtenu Next, la direction du CNRS a annoncé l’ « ouverture d’Emmy, agent conversationnel en intelligence artificielle générative, pour les agents CNRS ».
Accessible via un portail du centre de recherche à partir du 16 décembre 2025, ce chatbot utilisera les modèles de Mistral AI, « grâce à un accord passé » avec l’entreprise, explique la DSI du CNRS.
Dans sa première version accessible aux agents, la DSI met en avant les fonctionnalités suivantes :
traduction de textes en toutes langues ;
synthèses de documents ;
aide à la reformulation ;
aide à la réflexion ;
recherche sur le web ;
reconnaissance de textes et d’images ;
mode « raisonnement » : l’IA traite la question de l’utilisateur étape par étape afin de donner une réponse plus pertinente et plus complète ;
collections de documents : permet d’ajouter des documents externes pour contextualiser la réflexion (par exemple un chercheur peut télécharger ses publications pour permettre à l’IA de contextualiser et enrichir ses réponses).
Une page présentant le projet est en ligne depuis tout juste un an.
Le prénom féminin (comme Tay, Siri ou encore Alexa) utilisé pour ce chatbot est présenté comme une référence à la mathématicienne allemande Emmy Noether.
Dans son message, la DSI explique qu’ un « module de sensibilisation à l’intelligence artificielle ainsi que des recommandations d’usage de l’IA générative au CNRS » seront proposés aux agents « d’ici le 16 décembre pour garantir une utilisation d’Emmy dans un cadre sécurisé et adapté ».
Elle ajoute qu’une attestation de suivi de ce module devra être présentée pour accéder à Emmy et qu’ « au regard des risques avérés que présentent les autres outils d’IA en cloud public sur la confidentialité des données et la protection du patrimoine informationnel de l’établissement, tout autre outil d’agent conversationnel en IA générative sera désormais proscrit au CNRS ».
La direction du centre de recherche ne donne par contre pas d’information à ces agents sur le budget consacré à l’accord passé avec Mistral AI.
Le gouvernement Modi veut que les fabricants de smartphones préinstallent son app Sanchar Saathi, présentée comme une app de cybersécurité, notamment contre les fraudes. Le tollé politique pourrait faire reculer l’interdiction initiale de la désinstaller. Quoiqu’il en soit, Apple ne devrait pas se plier à cette demande, que l’entreprise estime créer des problèmes de confidentialité et de sécurité.
Le 28 novembre dernier, le ministre indien des Communications, Jyotiraditya Scindia, a ordonné aux fabricants et importateurs de smartphones destinés à l’Inde d’installer l’application ministérielle Sanchar Saathi, a révélé l’agence de presse Reuters ce 1er décembre.
Une application gouvernementale obligatoire présentée comme anti-fraude
Dans un communiqué publié le même jour, le ministère assure que cette app est pensée « pour lutter contre l’utilisation abusive des ressources de télécommunication à des fins de cyberfraude et garantir la cybersécurité des télécommunications ». L’application est disponible sur Google Play et l’Apple Store indien et se présente comme « visant à autonomiser les abonnés mobiles, à renforcer leur sécurité et à sensibiliser le public aux initiatives citoyennes ».
Cette décision fait pourtant penser à celle prise par la Russie, d’obliger les distributeurs de smartphones à préinstaller le magasin d’applications RuStore et l’application de chat Max.
D’autant que, dans son communiqué, le ministère indien explique que les fabricants et importateurs ne doivent pas seulement préinstaller Sanchar Saathi, ils doivent aussi veiller à ce qu’elle soit « facilement visible et accessible aux utilisateurs finaux lors de la première utilisation ou de la configuration de l’appareil et que ses fonctionnalités ne soient pas désactivées ou restreintes ».
Critiques et marche arrière du ministre
L’information a fait réagir dans le pays dirigé par Narendra Modi. « Ce serait comme vivre dans une dictature moderne », explique par exemple Apar Gupta, fondateur de l’ONG indienne Internet Freedom Foundation interrogé par The Wire.
Face aux critiques, le gouvernement semble faire quelques pas en arrière. Ainsi, The Wire rapporte que Jyotiraditya Scindia a assuré que « vous pouvez activer ou désactiver la surveillance des appels selon votre souhait. Si vous souhaitez la conserver dans votre téléphone, gardez-la. Si vous souhaitez la supprimer, faites-le ».
Dans une autre déclaration, le ministre affirme, toujours selon The Wire, « Si vous ne souhaitez pas utiliser Sanchar Saathi, vous pouvez le supprimer. Il s’agit d’une option facultative… Il s’agit de protéger les clients. Je tiens à dissiper tout malentendu… Il est de notre devoir de présenter cette application à tout le monde. C’est à l’utilisateur de décider s’il souhaite la conserver sur son appareil ou non… Elle peut être supprimée du téléphone portable comme n’importe quelle autre application ». Mais nos confrères indiens soulignent que ces déclarations sont en contradiction avec le communiqué de presse du ministère et avec les demandes envoyées aux fabricants.
Concernant les fabricants justement, Apple ne semble pas décidée à suivre la demande du gouvernement indien. C’est en tout cas ce que plusieurs sources internes ont assuré à Reuters. L’agence de presse explique que l’entreprise à la pomme va répondre à l’exécutif indien qu’elle ne suit nulle part dans le monde ce genre d’obligation, car cela soulève des problèmes liés à la confidentialité et à la sécurité pour iOS.
Rappelons qu’en Russie, Apple a suspendu ses ventes en 2022 suite à l’invasion de l’Ukraine et à l’embargo mis en place. Elle n’a donc pas à se conformer à la nouvelle loi obligeant la préinstallation de RuStore (Apple ne s’est néanmoins pas opposée à l’arrivée de ce magasin d’applications dans l’Apple Store local).
Le gouvernement Modi veut que les fabricants de smartphones préinstallent son app Sanchar Saathi, présentée comme une app de cybersécurité, notamment contre les fraudes. Le tollé politique pourrait faire reculer l’interdiction initiale de la désinstaller. Quoiqu’il en soit, Apple ne devrait pas se plier à cette demande, que l’entreprise estime créer des problèmes de confidentialité et de sécurité.
Le 28 novembre dernier, le ministre indien des Communications, Jyotiraditya Scindia, a ordonné aux fabricants et importateurs de smartphones destinés à l’Inde d’installer l’application ministérielle Sanchar Saathi, a révélé l’agence de presse Reuters ce 1er décembre.
Une application gouvernementale obligatoire présentée comme anti-fraude
Dans un communiqué publié le même jour, le ministère assure que cette app est pensée « pour lutter contre l’utilisation abusive des ressources de télécommunication à des fins de cyberfraude et garantir la cybersécurité des télécommunications ». L’application est disponible sur Google Play et l’Apple Store indien et se présente comme « visant à autonomiser les abonnés mobiles, à renforcer leur sécurité et à sensibiliser le public aux initiatives citoyennes ».
Cette décision fait pourtant penser à celle prise par la Russie, d’obliger les distributeurs de smartphones à préinstaller le magasin d’applications RuStore et l’application de chat Max.
D’autant que, dans son communiqué, le ministère indien explique que les fabricants et importateurs ne doivent pas seulement préinstaller Sanchar Saathi, ils doivent aussi veiller à ce qu’elle soit « facilement visible et accessible aux utilisateurs finaux lors de la première utilisation ou de la configuration de l’appareil et que ses fonctionnalités ne soient pas désactivées ou restreintes ».
Critiques et marche arrière du ministre
L’information a fait réagir dans le pays dirigé par Narendra Modi. « Ce serait comme vivre dans une dictature moderne », explique par exemple Apar Gupta, fondateur de l’ONG indienne Internet Freedom Foundation interrogé par The Wire.
Face aux critiques, le gouvernement semble faire quelques pas en arrière. Ainsi, The Wire rapporte que Jyotiraditya Scindia a assuré que « vous pouvez activer ou désactiver la surveillance des appels selon votre souhait. Si vous souhaitez la conserver dans votre téléphone, gardez-la. Si vous souhaitez la supprimer, faites-le ».
Dans une autre déclaration, le ministre affirme, toujours selon The Wire, « Si vous ne souhaitez pas utiliser Sanchar Saathi, vous pouvez le supprimer. Il s’agit d’une option facultative… Il s’agit de protéger les clients. Je tiens à dissiper tout malentendu… Il est de notre devoir de présenter cette application à tout le monde. C’est à l’utilisateur de décider s’il souhaite la conserver sur son appareil ou non… Elle peut être supprimée du téléphone portable comme n’importe quelle autre application ». Mais nos confrères indiens soulignent que ces déclarations sont en contradiction avec le communiqué de presse du ministère et avec les demandes envoyées aux fabricants.
Concernant les fabricants justement, Apple ne semble pas décidée à suivre la demande du gouvernement indien. C’est en tout cas ce que plusieurs sources internes ont assuré à Reuters. L’agence de presse explique que l’entreprise à la pomme va répondre à l’exécutif indien qu’elle ne suit nulle part dans le monde ce genre d’obligation, car cela soulève des problèmes liés à la confidentialité et à la sécurité pour iOS.
Rappelons qu’en Russie, Apple a suspendu ses ventes en 2022 suite à l’invasion de l’Ukraine et à l’embargo mis en place. Elle n’a donc pas à se conformer à la nouvelle loi obligeant la préinstallation de RuStore (Apple ne s’est néanmoins pas opposée à l’arrivée de ce magasin d’applications dans l’Apple Store local).
Poussée par les différentes organisations d’ayants droit de la culture comme de la presse, la ministre de la Culture Rachida Dati évoque l’idée d’une loi pour encadrer spécifiquement l’utilisation de tous types de contenus par les entreprises d’IA.
Après plusieurs réunions entre les entreprises d’IA et les organisations d’ayants droit, ces dernières sont ressorties déçues et l’ont fait savoir à la ministre de la Culture Rachida Dati. Allant dans leur sens, celle-ci propose maintenant de légiférer, notamment pour imposer un mode de rémunération.
Un cycle de réunions avait été lancé début juin par Rachida Dati et Clara Chappaz (alors ministre déléguée du Numérique) entre, d’un côté, des acteurs de l’IA comme Google, Mistral et OpenAI et de l’autre, quinze organisations d’ayants droit comme la Sacem, la SACD ou encore l’Alliance de la presse d’information générale (APIG) et le Syndicat de la presse indépendante d’information en ligne (Spiil).
Un dialogue peu productif
Mais, selon les Échos, aucune réelle discussion n’a réellement été enclenchée. « La belle idée était illusoire. Pour discuter, il faut être deux », déclarait Pierre Petillault, directeur général de l’Apig, à notre consœur des Echos, déplorant l’absence d’ouverture du côté des entreprises d’IA générative.
Le 18 novembre dernier, les quinze organisations d’ayants droit ont fait part à la ministre de la Culture de leur impatience dans une lettre obtenue par Contexte. « En dépit d’échanges parfois intéressants, ce processus n’a pas permis de dégager des solutions concrètes pour faciliter la négociation d’accords de licences », affirment-elles notamment.
Elles y demandaient à Rachida Dati des « solutions législatives fondées sur les recommandations du rapport du CSPLA [Conseil supérieur de la propriété littéraire et artistique] sur la rémunération des contenus culturels par les systèmes d’IA ». Commandé par son ministère, le rapport est le produit de la mission conduite par Alexandra Bensamoun et Joëlle Farchy, qui a rendu deux volets (une partie économique et une partie juridique) en juillet dernier.
Rachida Dati et des sénateurs de plusieurs partis sur la même longueur d’onde que les ayants droit
Rachida Dati a réagi exactement dans ce sens dans un communiqué de presse ce 28 novembre. Le ministère y juge que les accords qui existent sont « insuffisants pour assurer la juste rémunération des œuvres et contenus utilisés pour l’entraînement des modèles d’IA ». Il lui apparait « dès lors pleinement légitime que les pouvoirs publics envisagent des actions, y compris de nature législative comme celles évoquées dans le cadre des missions conduites au Conseil supérieur de la propriété littéraire et artistique ».
Le ministère explique même envisager la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ». En effet, la partie juridique du rapport du CSPLA [PDF] a proposé une solution pour « réintégrer les titulaires dans leurs droits en l’absence d’une transparence suffisante ». De fait, le rapport propose d’établir une « présomption d’utilisation ou d’exploitation » en se basant sur quelques indices (comme le fait que l’extrait d’un texte soit recraché par l’IA générative incriminée, par exemple).
Selon les Échos, une proposition de loi est aussi envisagée par les sénatrices Agnès Evren (Les Républicains), Laure Darcos (LIOT) et le sénateur Pierre Ouzoulias (PCF) pour un dépôt en décembre.
Poussée par les différentes organisations d’ayants droit de la culture comme de la presse, la ministre de la Culture Rachida Dati évoque l’idée d’une loi pour encadrer spécifiquement l’utilisation de tous types de contenus par les entreprises d’IA.
Après plusieurs réunions entre les entreprises d’IA et les organisations d’ayants droit, ces dernières sont ressorties déçues et l’ont fait savoir à la ministre de la Culture Rachida Dati. Allant dans leur sens, celle-ci propose maintenant de légiférer, notamment pour imposer un mode de rémunération.
Un cycle de réunions avait été lancé début juin par Rachida Dati et Clara Chappaz (alors ministre déléguée du Numérique) entre, d’un côté, des acteurs de l’IA comme Google, Mistral et OpenAI et de l’autre, quinze organisations d’ayants droit comme la Sacem, la SACD ou encore l’Alliance de la presse d’information générale (APIG) et le Syndicat de la presse indépendante d’information en ligne (Spiil).
Un dialogue peu productif
Mais, selon les Échos, aucune réelle discussion n’a réellement été enclenchée. « La belle idée était illusoire. Pour discuter, il faut être deux », déclarait Pierre Petillault, directeur général de l’Apig, à notre consœur des Echos, déplorant l’absence d’ouverture du côté des entreprises d’IA générative.
Le 18 novembre dernier, les quinze organisations d’ayants droit ont fait part à la ministre de la Culture de leur impatience dans une lettre obtenue par Contexte. « En dépit d’échanges parfois intéressants, ce processus n’a pas permis de dégager des solutions concrètes pour faciliter la négociation d’accords de licences », affirment-elles notamment.
Elles y demandaient à Rachida Dati des « solutions législatives fondées sur les recommandations du rapport du CSPLA [Conseil supérieur de la propriété littéraire et artistique] sur la rémunération des contenus culturels par les systèmes d’IA ». Commandé par son ministère, le rapport est le produit de la mission conduite par Alexandra Bensamoun et Joëlle Farchy, qui a rendu deux volets (une partie économique et une partie juridique) en juillet dernier.
Rachida Dati et des sénateurs de plusieurs partis sur la même longueur d’onde que les ayants droit
Rachida Dati a réagi exactement dans ce sens dans un communiqué de presse ce 28 novembre. Le ministère y juge que les accords qui existent sont « insuffisants pour assurer la juste rémunération des œuvres et contenus utilisés pour l’entraînement des modèles d’IA ». Il lui apparait « dès lors pleinement légitime que les pouvoirs publics envisagent des actions, y compris de nature législative comme celles évoquées dans le cadre des missions conduites au Conseil supérieur de la propriété littéraire et artistique ».
Le ministère explique même envisager la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ». En effet, la partie juridique du rapport du CSPLA [PDF] a proposé une solution pour « réintégrer les titulaires dans leurs droits en l’absence d’une transparence suffisante ». De fait, le rapport propose d’établir une « présomption d’utilisation ou d’exploitation » en se basant sur quelques indices (comme le fait que l’extrait d’un texte soit recraché par l’IA générative incriminée, par exemple).
Selon les Échos, une proposition de loi est aussi envisagée par les sénatrices Agnès Evren (Les Républicains), Laure Darcos (LIOT) et le sénateur Pierre Ouzoulias (PCF) pour un dépôt en décembre.
L’une des conférences scientifiques les plus importantes en machine learning, la ICLR, doit faire face à plusieurs problèmes : le recours à l’IA générative pour rédiger des articles scientifiques (ainsi que leurs relectures par les pairs), mais aussi une fuite des noms des relecteurs censés être anonymes.
L’International Conference on Learning Representations (ICLR) doit avoir lieu en avril 2026 au Brésil à Rio. C’est la treizième du nom et la conférence est l’une des plus importantes dans le milieu. Elle a été co-fondée en 2013 par deux chercheurs influents : Yoshua Bengio et Yann LeCun.
La fin de la semaine dernière n’a pas été de tout repos pour les chercheurs qui la gèrent. En effet, elle doit faire face à une controverse sur l’utilisation de l’IA générative pour soumettre des articles scientifiques mais aussi pour leur relecture censée être faite par les pairs. Une fuite de l’API du site de gestion de relecture par les pairs, qui permettait à tous de connaitre l’identité des relecteurs, a par ailleurs été découverte.
Un article 100 % généré par IA et bourré d’erreurs a obtenu une bonne note
Depuis le début, ICLR s’appuie sur la plateforme de relecture par les pairs Openreview, qui elle-même est l’application d’un « modèle de publication » proposé en 2009 par Yann LeCun, « basé sur un dépôt ouvert et des évaluations ouvertes (mais anonymes), qui crée un « marché » entre les articles et les entités chargées de leur évaluation ».
Il reste 82% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Lors d’un entretien avec un panel de lecteurs du groupe de presse EBRA, Emmanuel Macron a affiché sa volonté que le dispositif « portable en pause » applicable actuellement au collège (mais peu mis en place jusqu’à présent) soit étendu au lycée. Pour cela, une loi devra être présentée et votée au Parlement.
En déplacement à Mirecourt près d’Épinal ce vendredi 28 novembre pour répondre aux lecteurs de Vosges Matin, Emmanuel Macron a répété sa volonté d’éloigner les téléphones portables des établissements scolaires en évoquant leur potentielle interdiction dans les lycées « à la rentrée prochaine ».
Empêché d’être le « maitre des horloges » au Parlement suite à la dissolution de l’Assemblée nationale en 2024, Emmanuel Macron effectue une tournée nationale organisée avec plusieurs rédactions de la presse quotidienne régionale. Le président de la République y aborde régulièrement le sujet du numérique. Ainsi, il avait déjà évoqué la possibilité qu’il quitte la plateforme X le 12 novembre dernier face aux lecteurs de la Dépêche du Midi. 15 jours après, il n’a pas encore franchi le pas.
Aujourd’hui, face aux lecteurs de Vosges Matin, Emmanuel Macron a affirmé : « On a sorti le portable du collège, maintenant dans tous les collèges à la rentrée dernière, on va sans doute l’élargir aux lycées à la rentrée prochaine avec le ministre. Il est en train de regarder ça », estimant que l’interdiction est la manière la plus efficace « si on considère qu’il y a un vrai risque ».
Un long chemin de croix pour l’interdiction du portable au collège
Concernant la sortie du portable au collège, ce n’est pas encore tout à fait le cas, contrairement à ce qu’affirme le Président. Comme nous le disions en 2017 déjà, l’article L511-5 du Code de l’éducation prévoit depuis 2010 que « dans les écoles maternelles, les écoles élémentaires et les collèges, l’utilisation durant toute activité d’enseignement et dans les lieux prévus par le règlement intérieur, par un élève, d’un téléphone mobile est interdite », mais son application n’est pas si simple. À l’époque, Jean-Michel Blanquer promettait de « faire respecter les règles et le droit ».
Mais en 2025, le dossier n’est pas encore résolu. En avril dernier, Élisabeth Borne a annoncé qu’elle souhaitait que la « pause numérique » – l’interdiction pour les élèves d’utiliser leur smartphone au sein de l’établissement – soit « généralisée à tous les collèges à la prochaine rentrée ». Mais, en septembre, selon le syndicat majoritaire des chefs d’établissement SNPDEN-UNSA cité par le Monde, seuls 9 % des collèges avaient mis en place le dispositif.
Début novembre, en réponse à une question sur le nombre de collèges appliquant le dispositif de la sénatrice Les Républicains Agnès Evren, le nouveau ministre de l’Éducation nationale, Édouard Geffray, répondait de manière évasive : « je ne peux que souscrire à l’idée de mettre le portable en pause et d’installer des casiers de stockage lorsque c’est possible, mais je rappelle que la première pause du portable est l’interdiction, qu’il nous revient de faire respecter. Je ne peux que me réjouir des cas où il est possible de conforter l’interdiction avec des installations spécifiques, mais je ne peux pas imposer aux départements d’acquérir des casiers. Plusieurs centaines d’établissements fonctionnent ainsi, avec des retours qui laissent apparaître une nette satisfaction ».
Une volonté présidentielle qui n’est pas encore inscrite dans la loi
Le portable n’est donc pas encore sorti des collèges, même si, selon France Info, Emmanuel Macron estime que l’interdiction dans les collèges « marche plutôt bien, parce que c’est une interdiction nationale, c’est assumé ».
Pour ce qui est des lycées, Édouard Geffray semble donc être « en train de regarder ça », selon le président de la République. Mais il faut qu’un texte législatif soit voté avant qu’il puisse être appliqué « à la rentrée prochaine ».
La députée Renaissance Laure Miller a déposé le mardi 18 novembre 2025 une proposition de loi « visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » qui propose, entre autres, d’ « étendre aux lycées l’interdiction de l’utilisation des téléphones portables, dans les mêmes conditions que dans les autres établissements scolaires ». Reste à ce que l’article en question ainsi que la loi soient votés par l’Assemblée nationale et le Sénat, et que les décrets soient promulgués avant la rentrée 2026.
Lors d’un entretien avec un panel de lecteurs du groupe de presse EBRA, Emmanuel Macron a affiché sa volonté que le dispositif « portable en pause » applicable actuellement au collège (mais peu mis en place jusqu’à présent) soit étendu au lycée. Pour cela, une loi devra être présentée et votée au Parlement.
En déplacement à Mirecourt près d’Épinal ce vendredi 28 novembre pour répondre aux lecteurs de Vosges Matin, Emmanuel Macron a répété sa volonté d’éloigner les téléphones portables des établissements scolaires en évoquant leur potentielle interdiction dans les lycées « à la rentrée prochaine ».
Empêché d’être le « maitre des horloges » au Parlement suite à la dissolution de l’Assemblée nationale en 2024, Emmanuel Macron effectue une tournée nationale organisée avec plusieurs rédactions de la presse quotidienne régionale. Le président de la République y aborde régulièrement le sujet du numérique. Ainsi, il avait déjà évoqué la possibilité qu’il quitte la plateforme X le 12 novembre dernier face aux lecteurs de la Dépêche du Midi. 15 jours après, il n’a pas encore franchi le pas.
Aujourd’hui, face aux lecteurs de Vosges Matin, Emmanuel Macron a affirmé : « On a sorti le portable du collège, maintenant dans tous les collèges à la rentrée dernière, on va sans doute l’élargir aux lycées à la rentrée prochaine avec le ministre. Il est en train de regarder ça », estimant que l’interdiction est la manière la plus efficace « si on considère qu’il y a un vrai risque ».
Un long chemin de croix pour l’interdiction du portable au collège
Concernant la sortie du portable au collège, ce n’est pas encore tout à fait le cas, contrairement à ce qu’affirme le Président. Comme nous le disions en 2017 déjà, l’article L511-5 du Code de l’éducation prévoit depuis 2010 que « dans les écoles maternelles, les écoles élémentaires et les collèges, l’utilisation durant toute activité d’enseignement et dans les lieux prévus par le règlement intérieur, par un élève, d’un téléphone mobile est interdite », mais son application n’est pas si simple. À l’époque, Jean-Michel Blanquer promettait de « faire respecter les règles et le droit ».
Mais en 2025, le dossier n’est pas encore résolu. En avril dernier, Élisabeth Borne a annoncé qu’elle souhaitait que la « pause numérique » – l’interdiction pour les élèves d’utiliser leur smartphone au sein de l’établissement – soit « généralisée à tous les collèges à la prochaine rentrée ». Mais, en septembre, selon le syndicat majoritaire des chefs d’établissement SNPDEN-UNSA cité par le Monde, seuls 9 % des collèges avaient mis en place le dispositif.
Début novembre, en réponse à une question sur le nombre de collèges appliquant le dispositif de la sénatrice Les Républicains Agnès Evren, le nouveau ministre de l’Éducation nationale, Édouard Geffray, répondait de manière évasive : « je ne peux que souscrire à l’idée de mettre le portable en pause et d’installer des casiers de stockage lorsque c’est possible, mais je rappelle que la première pause du portable est l’interdiction, qu’il nous revient de faire respecter. Je ne peux que me réjouir des cas où il est possible de conforter l’interdiction avec des installations spécifiques, mais je ne peux pas imposer aux départements d’acquérir des casiers. Plusieurs centaines d’établissements fonctionnent ainsi, avec des retours qui laissent apparaître une nette satisfaction ».
Une volonté présidentielle qui n’est pas encore inscrite dans la loi
Le portable n’est donc pas encore sorti des collèges, même si, selon France Info, Emmanuel Macron estime que l’interdiction dans les collèges « marche plutôt bien, parce que c’est une interdiction nationale, c’est assumé ».
Pour ce qui est des lycées, Édouard Geffray semble donc être « en train de regarder ça », selon le président de la République. Mais il faut qu’un texte législatif soit voté avant qu’il puisse être appliqué « à la rentrée prochaine ».
La députée Renaissance Laure Miller a déposé le mardi 18 novembre 2025 une proposition de loi « visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » qui propose, entre autres, d’ « étendre aux lycées l’interdiction de l’utilisation des téléphones portables, dans les mêmes conditions que dans les autres établissements scolaires ». Reste à ce que l’article en question ainsi que la loi soient votés par l’Assemblée nationale et le Sénat, et que les décrets soient promulgués avant la rentrée 2026.
Le Conseil et le Parlement européen ont trouvé un accord sur de nouvelles règles à propos de la fraude en ligne et l’utilisation abusive des données. Notamment, les plateformes devront faire face à leurs responsabilités si elles n’ont pas supprimé des contenus frauduleux signalés qui ont atteint des victimes.
« Historique : Nous nous attaquons à l’industrie de la fraude numérique », a exulté le député européen du Danemark Morten Løkkegaard (Renew) sur Facebook. « Le Parlement et le Conseil ont conclu un accord visant à rendre le secteur des services de paiement de l’UE plus ouvert et plus concurrentiel, tout en le dotant de solides défenses contre la fraude et les violations de données », explique la députée européenne Place publique sur X.
Ce jeudi 27 novembre, le Conseil et le Parlement européen ont annoncé s’être mis d’accord à propos de deux textes sur la régulation des paiements en ligne (le Payment Services Regulation et la directive Payment Services Directive 3, PSD3), comme l’a repéré Politico. Il reste une dernière étape pour qu’il puisse entrer en vigueur : une adoption formelle par les deux institutions.
Renfort de la coopération entre prestataires de services de paiement
Le Conseil de l’Europe explique que « l’objectif de ces nouvelles règles est de mieux lutter contre la fraude aux paiements, d’améliorer la transparence des frais et de renforcer la protection des consommateurs dans le secteur des services de paiement ». L’idée est de mettre à jour la législation européenne face aux nombreuses tentatives de phishings auxquelles nous faisons face.
Ces textes renforcent, entre autres, les obligations des prestataires de services de paiement concernant les fraudes : obligation de partager entre eux les informations sur des cas repérés mais aussi de vérifier les numéros IBAN avant tout virement (et pas seulement sur les virements instantanés en euros comme actuellement). Ils seront aussi tenus responsables s’ils n’ont pas mis en place certains outils préventifs face à la fraude.
Une attention obligatoire sur les signalements de fraude
Mais ces textes donnent aussi une responsabilité à d’autres acteurs jusque-là laissés tranquilles sur le sujet. Ainsi les réseaux sociaux seront responsables envers les prestataires de services de paiement qui auront remboursé des clients victimes de fraude si celle-ci a été effectuée en passant par un message publié sur leur plateforme qui aurait été préalablement signalé.
Le Parlement européen explique aussi que les annonceurs de services financiers vont devoir démontrer aux très grandes plateformes en ligne (VLOPs) et moteurs de recherche (VLOSE) qu’ils sont « légalement autorisés (ou officiellement exemptés) dans le pays concerné à offrir ces services, ou qu’ils font de la publicité pour le compte d’une personne qui l’est ».
Rappelons que des documents internes à Meta ont récemment révélé que le groupe de Mark Zuckerberg prévoit de générer 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars, à partir d’arnaques et de publicités frauduleuses.
Les négociateurs européens s’appuient notamment sur le DSA et le DMA pour établir ces nouvelles règles.
« Ce cadre complexe sape les efforts de simplification et risque d’entrer en conflit avec l’interdiction de la surveillance générale prévue par le DSA, ignorant ainsi les nombreuses études qui avertissent que cela serait contre-productif. Au lieu de protéger les consommateurs, le résultat obtenu aujourd’hui crée un dangereux précédent et décharge de leur responsabilité ceux qui sont les mieux placés pour prévenir la fraude », a réagi Leonardo Veneziani, représentant du lobby du numérique états-unien CCIA (regroupant notamment Amazon, Google, Apple, Meta et Shopify).
Le Conseil et le Parlement européen ont trouvé un accord sur de nouvelles règles à propos de la fraude en ligne et l’utilisation abusive des données. Notamment, les plateformes devront faire face à leurs responsabilités si elles n’ont pas supprimé des contenus frauduleux signalés qui ont atteint des victimes.
« Historique : Nous nous attaquons à l’industrie de la fraude numérique », a exulté le député européen du Danemark Morten Løkkegaard (Renew) sur Facebook. « Le Parlement et le Conseil ont conclu un accord visant à rendre le secteur des services de paiement de l’UE plus ouvert et plus concurrentiel, tout en le dotant de solides défenses contre la fraude et les violations de données », explique la députée européenne Place publique sur X.
Ce jeudi 27 novembre, le Conseil et le Parlement européen ont annoncé s’être mis d’accord à propos de deux textes sur la régulation des paiements en ligne (le Payment Services Regulation et la directive Payment Services Directive 3, PSD3), comme l’a repéré Politico. Il reste une dernière étape pour qu’il puisse entrer en vigueur : une adoption formelle par les deux institutions.
Renfort de la coopération entre prestataires de services de paiement
Le Conseil de l’Europe explique que « l’objectif de ces nouvelles règles est de mieux lutter contre la fraude aux paiements, d’améliorer la transparence des frais et de renforcer la protection des consommateurs dans le secteur des services de paiement ». L’idée est de mettre à jour la législation européenne face aux nombreuses tentatives de phishings auxquelles nous faisons face.
Ces textes renforcent, entre autres, les obligations des prestataires de services de paiement concernant les fraudes : obligation de partager entre eux les informations sur des cas repérés mais aussi de vérifier les numéros IBAN avant tout virement (et pas seulement sur les virements instantanés en euros comme actuellement). Ils seront aussi tenus responsables s’ils n’ont pas mis en place certains outils préventifs face à la fraude.
Une attention obligatoire sur les signalements de fraude
Mais ces textes donnent aussi une responsabilité à d’autres acteurs jusque-là laissés tranquilles sur le sujet. Ainsi les réseaux sociaux seront responsables envers les prestataires de services de paiement qui auront remboursé des clients victimes de fraude si celle-ci a été effectuée en passant par un message publié sur leur plateforme qui aurait été préalablement signalé.
Le Parlement européen explique aussi que les annonceurs de services financiers vont devoir démontrer aux très grandes plateformes en ligne (VLOPs) et moteurs de recherche (VLOSE) qu’ils sont « légalement autorisés (ou officiellement exemptés) dans le pays concerné à offrir ces services, ou qu’ils font de la publicité pour le compte d’une personne qui l’est ».
Rappelons que des documents internes à Meta ont récemment révélé que le groupe de Mark Zuckerberg prévoit de générer 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars, à partir d’arnaques et de publicités frauduleuses.
Les négociateurs européens s’appuient notamment sur le DSA et le DMA pour établir ces nouvelles règles.
« Ce cadre complexe sape les efforts de simplification et risque d’entrer en conflit avec l’interdiction de la surveillance générale prévue par le DSA, ignorant ainsi les nombreuses études qui avertissent que cela serait contre-productif. Au lieu de protéger les consommateurs, le résultat obtenu aujourd’hui crée un dangereux précédent et décharge de leur responsabilité ceux qui sont les mieux placés pour prévenir la fraude », a réagi Leonardo Veneziani, représentant du lobby du numérique états-unien CCIA (regroupant notamment Amazon, Google, Apple, Meta et Shopify).
L’enjeu de l’utilisation des terres rares est crucial : industriel, technologique, géopolitique, économique, environnemental et sanitaire. Le CNRS a lancé une initiative pour établir l’état des connaissances scientifiques sur leur utilisation, les possibilités d’usages plus sobres, leur recyclage ainsi que de l’amélioration de leurs modes d’extraction.
Les « éléments de terres rares » (ETR), ou plus couramment nommés terres rares, sont quasiment partout dans nos appareils technologiques, du smartphone aux avions en passant par les voitures électriques mais surtout les éoliennes offshore.
Plus précisément, on les retrouve dans les aimants permanents des écouteurs intra-auriculaires, des véhicules électriques et des éoliennes offshore ou dans les poudres de polissage pour les verres optiques (lentilles, écrans plats, smartphones, etc.) ou les semi-conducteurs. Mais aussi dans les anodes des batteries NiMH utilisées dans les voitures hybrides ou les matériaux luminescents utilisés pour les LED de lumières blanches. D’autres usages existent aussi, même s’ils sont plus faibles : dans certains verres, dans les agents de contraste pour l’imagerie médicale ou comme catalyseurs dans l’industrie chimique.
Le CNRS a décidé de lancer une initiative pour faire le tour des connaissances scientifiques sur ces matériaux, de leurs usages, des éventuelles façons de s’en passer ou du moins de les utiliser en quantité réduite ou de les recycler. Le centre de recherche publie ainsi un document de 84 pages sur le sujet [PDF] mobilisant une équipe de 14 expertes et experts principaux aussi bien chimistes que géologues, écotoxicologues, philosophes, sociologues, juristes ou physiciens.
Des réserves surtout situées en Chine et au Brésil
Ils y rappellent d’abord que ces 17 éléments chimiques sont des matériaux stratégiques et critiques, mais la plupart sont relativement abondants dans la croûte terrestre. Seul le scandium ne se trouve pas avec les autres ETR dans les environnements géologiques. « Il représente donc des ressources et des marchés distincts », expliquent les chercheurs qui l’ont exclu de leur étude.
« En 2017, les ressources mondiales en ETR sont estimées à 478,14 millions de tonnes (Mt) « d’oxydes d’ETR équivalents » ». On parle en « oxydes d’ETR équivalents » de façon standardisée même si les ressources ne contiennent pas d’oxydes d’ETR réellement produits. Mais, sur ces 478,14 millions de tonnes, en 2025, environ 100 millions de tonnes sont des ressources réellement exploitables (appelées réserves en géologie).
Elles sont réparties inéquitablement sur le globe avec deux pays qui concentrent les réserves : la Chine (44 %) et le Brésil (21 %) :
D’où les capacités importantes de la Chine à imposer des restrictions mais aussi de drastiquement augmenter sa production comme depuis 2019 :
Les chercheurs expliquent que nos besoins en ressources « ne peuvent être assurés uniquement par une relance de l’extraction sur le territoire national » et proposent donc « des usages plus responsables, qui réduisent notre dépendance à des approvisionnements étrangers », avec trois pistes : réduire, recycler, extraire autrement.
Des terres rares souvent pas indispensables mais accélératrices de performances
Concernant la réduction de leur utilisation, les chercheurs remarquent que les terres rares ne sont souvent pas indispensables pour le fonctionnement du produit dans lequel ils sont utilisés. Elles peuvent « faire l’objet d’une substitution dans la plupart des usages mais souvent au prix de compromis sur les performances des matériaux et dispositifs ».
Il reste 49% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Alors que le ministère de l’Éducation incite les enseignants à utiliser l’IA sans leur donner un réel cadre d’usage, les quelques enseignants qui l’utilisent doivent bricoler dans leur coin. Il n’y a pas d’outil à disposition pour enseigner leurs usages. Les programmes scolaires ne permettent pas de prendre le temps d’aborder les questions autour du fonctionnement de l’IA générative et des problématiques qui l’entourent.
Depuis l’arrivée de ChatGPT, le milieu de l’éducation se demande comment faire avec… ou sans. Les IA génératives ont remis en question, non seulement la manière dont les élèves peuvent percevoir l’enseignement en classe, mais aussi comment ils peuvent se percevoir eux-mêmes face à l’apprentissage : à quoi bon apprendre si une machine peut recracher pour nous en un instant un savoir qu’on nous demande de retranscrire dans les devoirs ?
De leur côté, les enseignants ont rapidement ressenti les difficultés de détecter un texte généré par IA et de le prouver ou d’adapter leur enseignement et le contrôle de connaissance pour ne pas se poser la question. Des recherches montrent aussi que, comme l’utilisation de l’IA dans les outils d’imagerie médicale fait baisser les capacités de détection du personnel médical, l’utilisation de l’IA dans l’apprentissage des maths en lycée booste les résultats avant de les voir régresser quand on demande aux élèves de s’en passer.
Une volonté de la hiérarchie d’y « aller à fond sur l’IA »
On pourrait se dire que l’intégration de l’IA générative au sein même de l’Éducation nationale via des cours permettrait d’adapter l’école à ce changement. Le ministère semble aller dans cette voie : « L’institution pousse, à l’heure actuelle, à expérimenter tous azimuts. Il y a des initiatives partout de plein de rectorats qui font des expérimentations IA », explique à Next Amélie Hart, secrétaire nationale du syndicat SNES-FSU et enseignante en lycée en Histoire-Géographie, mais sans réel cadre.
« Il y a une volonté de la hiérarchie de l’Éducation nationale à aller à fond sur les IA, y compris en étant hyper mal formés sur les enjeux de la protection des données (qui n’a pas commencé avec l’IA) », ajoute-t-elle. Sur le côté y aller à fond sans formation, on a un peu l’impression de revivre les périodes de confinement avec la « continuité pédagogique ». Cela soulevait les mêmes questions de protection des données et de souveraineté. Cinq ans plus tard, la leçon ne semble pas apprise.
Résultat, « pour l’instant, c’est du bricolage », estime Christophe Cailleaux, le coresponsable du groupe numérique du SNES-FSU, « tout le monde fait à sa sauce et dans son coin ».
Il reste 67% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En septembre dernier, les enseignants et les élèves entamaient la quatrième année scolaire avec l’IA générative dans toutes les mains. Le ministère a proposé un « Cadre d’usage de l’IA en éducation » mais celui-ci est critiqué pour son manque de clarté et de praticité.
En novembre 2022, OpenAI lançait ChatGPT et, dès ce moment, beaucoup d’élèves et d’étudiants ont utilisé les nouvelles applications pour générer des réponses à leurs devoirs sans qu’ils ne reçoivent de réelle formation à propos de ces outils. Que ce soit pour en connaître leurs fonctionnements, leurs limites ou la façon de les utiliser. En tout cas, dans le cadre d’une structuration claire des savoirs pensée au sein de l’Éducation nationale.
En mai dernier, le ministère de l’Éducation nationale publiait un « Cadre d’usage de l’IA en éducation ». Celui-ci a pour objectif, selon le ministère, « d’apporter des réponses claires aux interrogations légitimes de l’ensemble de la communauté éducative et des agents sur l’usage de l’IA en éducation ». Dans sa présentation, l’institution ajoutait : « l’usage de l’IA est autorisé en éducation dès lors qu’il respecte le cadre défini ».
Pas de consignes claires sauf l’interdiction avant la quatrième
Le Cadre du ministère est un document d’une quinzaine de pages. Mais les premières pages sont surtout composées d’explications sur le pourquoi de ce document, de définitions de l’IA et d’un constat sur les potentialités et les risques dans l’usage de l’IA et évoquent des interrogations que soulèvent certains usages sans entrer dans les détails.
De réponses claires, le document en semble peu pourvu pour faire comprendre aux enseignants comment et quand utiliser l’IA de façon concrète.
Enfin, une chose y est quand même claire : pas d’utilisation pédagogique de l’IA à l’école avant la quatrième. Avant cette classe, les élèves doivent être sensibilisés mais ne peuvent toucher aux outils en classe. Après, l’utilisation de l’IA est autorisée « en lien avec les objectifs des programmes scolaires et du CRCN » (le « cadre de référence des compétences numériques » qui met en place des évaluations des compétences, notamment via les parcours Pix à passer en ligne).
Le ministère « se positionne dans un monde idéal »
Mais, « dans ce cadre d’usage, il n’y a pas de cadre », estime Amélie Hart, secrétaire nationale du syndicat SNES-FSU et enseignante en lycée en Histoire-Géographie, interrogée par Next. Pour elle, ce document devrait expliquer plus précisément les restrictions d’utilisation de l’IA dans l’enseignement.
Il reste 63% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.