Vue lecture

Le gouvernement indien impose la préinstallation d’une application sur les smartphones

Modi's eye
Le gouvernement indien impose la préinstallation d’une application sur les smartphones

Le gouvernement Modi veut que les fabricants de smartphones préinstallent son app Sanchar Saathi, présentée comme une app de cybersécurité, notamment contre les fraudes. Le tollé politique pourrait faire reculer l’interdiction initiale de la désinstaller. Quoiqu’il en soit, Apple ne devrait pas se plier à cette demande, que l’entreprise estime créer des problèmes de confidentialité et de sécurité.

Le 28 novembre dernier, le ministre indien des Communications, Jyotiraditya Scindia, a ordonné aux fabricants et importateurs de smartphones destinés à l’Inde d’installer l’application ministérielle Sanchar Saathi, a révélé l’agence de presse Reuters ce 1er décembre.

Une application gouvernementale obligatoire présentée comme anti-fraude

Dans un communiqué publié le même jour, le ministère assure que cette app est pensée pour « pour lutter contre l’utilisation abusive des ressources de télécommunication à des fins de cyberfraude et garantir la cybersécurité des télécommunications ». L’application est disponible sur Google Play et l’Apple Store indien et se présente comme « visant à autonomiser les abonnés mobiles, à renforcer leur sécurité et à sensibiliser le public aux initiatives citoyennes ».

Cette décision fait pourtant penser à celle prise par la Russie, d’obliger les distributeurs de smartphones à préinstaller le magasin d’applications RuStore et l’application de chat Max.

D’autant que, dans son communiqué, le ministère indien explique que les fabricants et importateurs ne doivent pas seulement préinstaller Sanchar Saathi, ils doivent aussi veiller à ce qu’elle soit « facilement visible et accessible aux utilisateurs finaux lors de la première utilisation ou de la configuration de l’appareil et que ses fonctionnalités ne soient pas désactivées ou restreintes ».

Critiques et marche arrière du ministre

L’information a fait réagir dans le pays dirigé par Narendra Modi. « Ce serait comme vivre dans une dictature moderne », explique par exemple Apar Gupta, fondateur de l’ONG indienne Internet Freedom Foundation interrogé par The Wire.

Face aux critiques, le gouvernement semble faire quelques pas en arrière. Ainsi, The Wire rapporte que Jyotiraditya Scindia a assuré que « vous pouvez activer ou désactiver la surveillance des appels selon votre souhait. Si vous souhaitez la conserver dans votre téléphone, gardez-la. Si vous souhaitez la supprimer, faites-le ».

Dans une autre déclaration, le ministre affirme, toujours selon The Wire, « Si vous ne souhaitez pas utiliser Sanchar Saathi, vous pouvez le supprimer. Il s’agit d’une option facultative… Il s’agit de protéger les clients. Je tiens à dissiper tout malentendu… Il est de notre devoir de présenter cette application à tout le monde. C’est à l’utilisateur de décider s’il souhaite la conserver sur son appareil ou non… Elle peut être supprimée du téléphone portable comme n’importe quelle autre application ». Mais nos confrères indiens soulignent que ces déclarations sont en contradiction avec le communiqué de presse du ministère et avec les demandes envoyées aux fabricants.

Concernant les fabricants justement, Apple ne semble pas décidée à suivre la demande du gouvernement indien. C’est en tout cas ce que plusieurs sources internes ont assuré à Reuters. L’agence de presse explique que l’entreprise à la pomme va répondre à l’exécutif indien qu’elle ne suit nulle part dans le monde ce genre d’obligation, car cela soulève des problèmes liés à la confidentialité et à la sécurité pour iOS.

Rappelons qu’en Russie, Apple a suspendu ses ventes en 2022 suite à l’invasion de l’Ukraine et à l’embargo mis en place. Elle n’a donc pas à se conformer à la nouvelle loi obligeant la préinstallation de RuStore (Apple ne s’est néanmoins pas opposée à l’arrivée de ce magasin d’applications dans l’Apple Store local).

  •  

Le gouvernement indien impose la préinstallation d’une application sur les smartphones

Modi's eye
Le gouvernement indien impose la préinstallation d’une application sur les smartphones

Le gouvernement Modi veut que les fabricants de smartphones préinstallent son app Sanchar Saathi, présentée comme une app de cybersécurité, notamment contre les fraudes. Le tollé politique pourrait faire reculer l’interdiction initiale de la désinstaller. Quoiqu’il en soit, Apple ne devrait pas se plier à cette demande, que l’entreprise estime créer des problèmes de confidentialité et de sécurité.

Le 28 novembre dernier, le ministre indien des Communications, Jyotiraditya Scindia, a ordonné aux fabricants et importateurs de smartphones destinés à l’Inde d’installer l’application ministérielle Sanchar Saathi, a révélé l’agence de presse Reuters ce 1er décembre.

Une application gouvernementale obligatoire présentée comme anti-fraude

Dans un communiqué publié le même jour, le ministère assure que cette app est pensée pour « pour lutter contre l’utilisation abusive des ressources de télécommunication à des fins de cyberfraude et garantir la cybersécurité des télécommunications ». L’application est disponible sur Google Play et l’Apple Store indien et se présente comme « visant à autonomiser les abonnés mobiles, à renforcer leur sécurité et à sensibiliser le public aux initiatives citoyennes ».

Cette décision fait pourtant penser à celle prise par la Russie, d’obliger les distributeurs de smartphones à préinstaller le magasin d’applications RuStore et l’application de chat Max.

D’autant que, dans son communiqué, le ministère indien explique que les fabricants et importateurs ne doivent pas seulement préinstaller Sanchar Saathi, ils doivent aussi veiller à ce qu’elle soit « facilement visible et accessible aux utilisateurs finaux lors de la première utilisation ou de la configuration de l’appareil et que ses fonctionnalités ne soient pas désactivées ou restreintes ».

Critiques et marche arrière du ministre

L’information a fait réagir dans le pays dirigé par Narendra Modi. « Ce serait comme vivre dans une dictature moderne », explique par exemple Apar Gupta, fondateur de l’ONG indienne Internet Freedom Foundation interrogé par The Wire.

Face aux critiques, le gouvernement semble faire quelques pas en arrière. Ainsi, The Wire rapporte que Jyotiraditya Scindia a assuré que « vous pouvez activer ou désactiver la surveillance des appels selon votre souhait. Si vous souhaitez la conserver dans votre téléphone, gardez-la. Si vous souhaitez la supprimer, faites-le ».

Dans une autre déclaration, le ministre affirme, toujours selon The Wire, « Si vous ne souhaitez pas utiliser Sanchar Saathi, vous pouvez le supprimer. Il s’agit d’une option facultative… Il s’agit de protéger les clients. Je tiens à dissiper tout malentendu… Il est de notre devoir de présenter cette application à tout le monde. C’est à l’utilisateur de décider s’il souhaite la conserver sur son appareil ou non… Elle peut être supprimée du téléphone portable comme n’importe quelle autre application ». Mais nos confrères indiens soulignent que ces déclarations sont en contradiction avec le communiqué de presse du ministère et avec les demandes envoyées aux fabricants.

Concernant les fabricants justement, Apple ne semble pas décidée à suivre la demande du gouvernement indien. C’est en tout cas ce que plusieurs sources internes ont assuré à Reuters. L’agence de presse explique que l’entreprise à la pomme va répondre à l’exécutif indien qu’elle ne suit nulle part dans le monde ce genre d’obligation, car cela soulève des problèmes liés à la confidentialité et à la sécurité pour iOS.

Rappelons qu’en Russie, Apple a suspendu ses ventes en 2022 suite à l’invasion de l’Ukraine et à l’embargo mis en place. Elle n’a donc pas à se conformer à la nouvelle loi obligeant la préinstallation de RuStore (Apple ne s’est néanmoins pas opposée à l’arrivée de ce magasin d’applications dans l’Apple Store local).

  •  

IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

Culture vs numérique : the neverending war
IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

Poussée par les différentes organisations d’ayants droit de la culture comme de la presse, la ministre de la Culture Rachida Dati évoque l’idée d’une loi pour encadrer spécifiquement l’utilisation de tous types de contenus par les entreprises d’IA.

Après plusieurs réunions entre les entreprises d’IA et les organisations d’ayants droit, ces dernières sont ressorties déçues et l’ont fait savoir à la ministre de la Culture Rachida Dati. Allant dans leur sens, celle-ci propose maintenant de légiférer, notamment pour imposer un mode de rémunération.

Un cycle de réunions avait été lancé début juin par Rachida Dati et Clara Chappaz (alors ministre déléguée du Numérique) entre, d’un côté, des acteurs de l’IA comme Google, Mistral et OpenAI et de l’autre, quinze organisations d’ayants droit comme la Sacem, la SACD ou encore l’Alliance de la presse d’information générale (APIG) et le Syndicat de la presse indépendante d’information en ligne (Spiil).

Un dialogue peu productif

Mais, selon les Échos, aucune réelle discussion n’a réellement été enclenchée. « La belle idée était illusoire. Pour discuter, il faut être deux », déclarait Pierre Petillault, directeur général de l’Apig, à notre consœur des Echos, déplorant l’absence d’ouverture du côté des entreprises d’IA générative.

Le 18 novembre dernier, les quinze organisations d’ayants droit ont fait part à la ministre de la Culture de leur impatience dans une lettre obtenue par Contexte. « En dépit d’échanges parfois intéressants, ce processus n’a pas permis de dégager des solutions concrètes pour faciliter la négociation d’accords de licences », affirment-elles notamment.

Elles y demandaient à Rachida Dati des « solutions législatives fondées sur les recommandations du rapport du CSPLA [Conseil supérieur de la propriété littéraire et artistique] sur la rémunération des contenus culturels par les systèmes d’IA ». Commandé par son ministère, le rapport est le produit de la mission conduite par Alexandra Bensamoun et Joëlle Farchy, qui a rendu deux volets (une partie économique et une partie juridique) en juillet dernier.

Rachida Dati et des sénateurs de plusieurs partis sur la même longueur d’onde que les ayants droit

Rachida Dati a réagi exactement dans ce sens dans un communiqué de presse ce 28 novembre. Le ministère y juge que les accords qui existent sont « insuffisants pour assurer la juste rémunération des œuvres et contenus utilisés pour l’entraînement des modèles d’IA ». Il lui apparait « dès lors pleinement légitime que les pouvoirs publics envisagent des actions, y compris de nature législative comme celles évoquées dans le cadre des missions conduites au Conseil supérieur de la propriété littéraire et artistique ».

Le ministère explique même envisager la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ». En effet, la partie juridique du rapport du CSPLA [PDF] a proposé une solution pour « réintégrer les titulaires dans leurs droits en l’absence d’une transparence suffisante ». De fait, le rapport propose d’établir une « présomption d’utilisation ou d’exploitation » en se basant sur quelques indices (comme le fait que l’extrait d’un texte soit recraché par l’IA générative incriminée, par exemple).

Selon les Échos, une proposition de loi est aussi envisagée par les sénatrices Agnès Evren (Les Républicains), Laure Darcos (LIOT) et le sénateur Pierre Ouzoulias (PCF) pour un dépôt en décembre.

  •  

IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

Culture vs numérique : the neverending war
IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

Poussée par les différentes organisations d’ayants droit de la culture comme de la presse, la ministre de la Culture Rachida Dati évoque l’idée d’une loi pour encadrer spécifiquement l’utilisation de tous types de contenus par les entreprises d’IA.

Après plusieurs réunions entre les entreprises d’IA et les organisations d’ayants droit, ces dernières sont ressorties déçues et l’ont fait savoir à la ministre de la Culture Rachida Dati. Allant dans leur sens, celle-ci propose maintenant de légiférer, notamment pour imposer un mode de rémunération.

Un cycle de réunions avait été lancé début juin par Rachida Dati et Clara Chappaz (alors ministre déléguée du Numérique) entre, d’un côté, des acteurs de l’IA comme Google, Mistral et OpenAI et de l’autre, quinze organisations d’ayants droit comme la Sacem, la SACD ou encore l’Alliance de la presse d’information générale (APIG) et le Syndicat de la presse indépendante d’information en ligne (Spiil).

Un dialogue peu productif

Mais, selon les Échos, aucune réelle discussion n’a réellement été enclenchée. « La belle idée était illusoire. Pour discuter, il faut être deux », déclarait Pierre Petillault, directeur général de l’Apig, à notre consœur des Echos, déplorant l’absence d’ouverture du côté des entreprises d’IA générative.

Le 18 novembre dernier, les quinze organisations d’ayants droit ont fait part à la ministre de la Culture de leur impatience dans une lettre obtenue par Contexte. « En dépit d’échanges parfois intéressants, ce processus n’a pas permis de dégager des solutions concrètes pour faciliter la négociation d’accords de licences », affirment-elles notamment.

Elles y demandaient à Rachida Dati des « solutions législatives fondées sur les recommandations du rapport du CSPLA [Conseil supérieur de la propriété littéraire et artistique] sur la rémunération des contenus culturels par les systèmes d’IA ». Commandé par son ministère, le rapport est le produit de la mission conduite par Alexandra Bensamoun et Joëlle Farchy, qui a rendu deux volets (une partie économique et une partie juridique) en juillet dernier.

Rachida Dati et des sénateurs de plusieurs partis sur la même longueur d’onde que les ayants droit

Rachida Dati a réagi exactement dans ce sens dans un communiqué de presse ce 28 novembre. Le ministère y juge que les accords qui existent sont « insuffisants pour assurer la juste rémunération des œuvres et contenus utilisés pour l’entraînement des modèles d’IA ». Il lui apparait « dès lors pleinement légitime que les pouvoirs publics envisagent des actions, y compris de nature législative comme celles évoquées dans le cadre des missions conduites au Conseil supérieur de la propriété littéraire et artistique ».

Le ministère explique même envisager la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ». En effet, la partie juridique du rapport du CSPLA [PDF] a proposé une solution pour « réintégrer les titulaires dans leurs droits en l’absence d’une transparence suffisante ». De fait, le rapport propose d’établir une « présomption d’utilisation ou d’exploitation » en se basant sur quelques indices (comme le fait que l’extrait d’un texte soit recraché par l’IA générative incriminée, par exemple).

Selon les Échos, une proposition de loi est aussi envisagée par les sénatrices Agnès Evren (Les Républicains), Laure Darcos (LIOT) et le sénateur Pierre Ouzoulias (PCF) pour un dépôt en décembre.

  •  

Une conférence scientifique sur l’IA polluée par l’IA générative et une fuite d’API

Open(AI)Review
Une conférence scientifique sur l’IA polluée par l’IA générative et une fuite d’API

L’une des conférences scientifiques les plus importantes en machine learning, la ICLR, doit faire face à plusieurs problèmes : le recours à l’IA générative pour rédiger des articles scientifiques (ainsi que leurs relectures par les pairs), mais aussi une fuite des noms des relecteurs censés être anonymes.

L’International Conference on Learning Representations (ICLR) doit avoir lieu en avril 2026 au Brésil à Rio. C’est la treizième du nom et la conférence est l’une des plus importantes dans le milieu. Elle a été co-fondée en 2013 par deux chercheurs influents : Yoshua Bengio et Yann LeCun.

La fin de la semaine dernière n’a pas été de tout repos pour les chercheurs qui la gèrent. En effet, elle doit faire face à une controverse sur l’utilisation de l’IA générative pour soumettre des articles scientifiques mais aussi pour leur relecture censée être faite par les pairs. Une fuite de l’API du site de gestion de relecture par les pairs, qui permettait à tous de connaitre l’identité des relecteurs, a par ailleurs été découverte.

Un article 100 % généré par IA et bourré d’erreurs a obtenu une bonne note

Depuis le début, ICLR s’appuie sur la plateforme de relecture par les pairs Openreview, qui elle-même est l’application d’un « modèle de publication » proposé en 2009 par Yann LeCun, « basé sur un dépôt ouvert et des évaluations ouvertes (mais anonymes), qui crée un « marché » entre les articles et les entités chargées de leur évaluation ».


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Alors que « portable en pause » rame au collège, Emmanuel Macron veut l’étendre au lycée

Mode avion
Alors que « portable en pause » rame au collège, Emmanuel Macron veut l’étendre au lycée

Lors d’un entretien avec un panel de lecteurs du groupe de presse EBRA, Emmanuel Macron a affiché sa volonté que le dispositif « portable en pause » applicable actuellement au collège (mais peu mis en place jusqu’à présent) soit étendu au lycée. Pour cela, une loi devra être présentée et votée au Parlement.

En déplacement à Mirecourt près d’Épinal ce vendredi 28 novembre pour répondre aux lecteurs de Vosges Matin, Emmanuel Macron a répété sa volonté d’éloigner les téléphones portables des établissements scolaires en évoquant leur potentielle interdiction dans les lycées « à la rentrée prochaine ».

Empêché d’être le « maitre des horloges » au Parlement suite à la dissolution de l’Assemblée nationale en 2024, Emmanuel Macron effectue une tournée nationale organisée avec plusieurs rédactions de la presse quotidienne régionale. Le président de la République y aborde régulièrement le sujet du numérique. Ainsi, il avait déjà évoqué la possibilité qu’il quitte la plateforme X le 12 novembre dernier face aux lecteurs de la Dépêche du Midi. 15 jours après, il n’a pas encore franchi le pas.

Aujourd’hui, face aux lecteurs de Vosges Matin, Emmanuel Macron a affirmé : « On a sorti le portable du collège, maintenant dans tous les collèges à la rentrée dernière, on va sans doute l’élargir aux lycées à la rentrée prochaine avec le ministre. Il est en train de regarder ça », estimant que l’interdiction est la manière la plus efficace « si on considère qu’il y a un vrai risque ».

Un long chemin de croix pour l’interdiction du portable au collège

Concernant la sortie du portable au collège, ce n’est pas encore tout à fait le cas, contrairement à ce qu’affirme le Président. Comme nous le disions en 2017 déjà, l’article L511-5 du Code de l’éducation prévoit depuis 2010 que « dans les écoles maternelles, les écoles élémentaires et les collèges, l’utilisation durant toute activité d’enseignement et dans les lieux prévus par le règlement intérieur, par un élève, d’un téléphone mobile est interdite », mais son application n’est pas si simple. À l’époque, Jean-Michel Blanquer promettait de « faire respecter les règles et le droit ».

Mais en 2025, le dossier n’est pas encore résolu. En avril dernier, Élisabeth Borne a annoncé qu’elle souhaitait que la « pause numérique » – l’interdiction pour les élèves d’utiliser leur smartphone au sein de l’établissement – soit « généralisée à tous les collèges à la prochaine rentrée ». Mais, en septembre, selon le syndicat majoritaire des chefs d’établissement SNPDEN-UNSA cité par le Monde, seuls 9 % des collèges avaient mis en place le dispositif.

Début novembre, en réponse à une question sur le nombre de collèges appliquant le dispositif de la sénatrice Les Républicains Agnès Evren, le nouveau ministre de l’Éducation nationale, Édouard Geffray, répondait de manière évasive : « je ne peux que souscrire à l’idée de mettre le portable en pause et d’installer des casiers de stockage lorsque c’est possible, mais je rappelle que la première pause du portable est l’interdiction, qu’il nous revient de faire respecter. Je ne peux que me réjouir des cas où il est possible de conforter l’interdiction avec des installations spécifiques, mais je ne peux pas imposer aux départements d’acquérir des casiers. Plusieurs centaines d’établissements fonctionnent ainsi, avec des retours qui laissent apparaître une nette satisfaction ».

Une volonté présidentielle qui n’est pas encore inscrite dans la loi

Le portable n’est donc pas encore sorti des collèges, même si, selon France Info, Emmanuel Macron estime que l’interdiction dans les collèges « marche plutôt bien, parce que c’est une interdiction nationale, c’est assumé ».

Pour ce qui est des lycées, Édouard Geffray semble donc être « en train de regarder ça », selon le président de la République. Mais il faut qu’un texte législatif soit voté avant qu’il puisse être appliqué « à la rentrée prochaine ».

La députée Renaissance Laure Miller a déposé le mardi 18 novembre 2025 une proposition de loi « visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » qui propose, entre autres, d’ « étendre aux lycées l’interdiction de l’utilisation des téléphones portables, dans les mêmes conditions que dans les autres établissements scolaires ». Reste à ce que l’article en question ainsi que la loi soient votés par l’Assemblée nationale et le Sénat, et que les décrets soient promulgués avant la rentrée 2026.

  •  

Alors que « portable en pause » rame au collège, Emmanuel Macron veut l’étendre au lycée

Mode avion
Alors que « portable en pause » rame au collège, Emmanuel Macron veut l’étendre au lycée

Lors d’un entretien avec un panel de lecteurs du groupe de presse EBRA, Emmanuel Macron a affiché sa volonté que le dispositif « portable en pause » applicable actuellement au collège (mais peu mis en place jusqu’à présent) soit étendu au lycée. Pour cela, une loi devra être présentée et votée au Parlement.

En déplacement à Mirecourt près d’Épinal ce vendredi 28 novembre pour répondre aux lecteurs de Vosges Matin, Emmanuel Macron a répété sa volonté d’éloigner les téléphones portables des établissements scolaires en évoquant leur potentielle interdiction dans les lycées « à la rentrée prochaine ».

Empêché d’être le « maitre des horloges » au Parlement suite à la dissolution de l’Assemblée nationale en 2024, Emmanuel Macron effectue une tournée nationale organisée avec plusieurs rédactions de la presse quotidienne régionale. Le président de la République y aborde régulièrement le sujet du numérique. Ainsi, il avait déjà évoqué la possibilité qu’il quitte la plateforme X le 12 novembre dernier face aux lecteurs de la Dépêche du Midi. 15 jours après, il n’a pas encore franchi le pas.

Aujourd’hui, face aux lecteurs de Vosges Matin, Emmanuel Macron a affirmé : « On a sorti le portable du collège, maintenant dans tous les collèges à la rentrée dernière, on va sans doute l’élargir aux lycées à la rentrée prochaine avec le ministre. Il est en train de regarder ça », estimant que l’interdiction est la manière la plus efficace « si on considère qu’il y a un vrai risque ».

Un long chemin de croix pour l’interdiction du portable au collège

Concernant la sortie du portable au collège, ce n’est pas encore tout à fait le cas, contrairement à ce qu’affirme le Président. Comme nous le disions en 2017 déjà, l’article L511-5 du Code de l’éducation prévoit depuis 2010 que « dans les écoles maternelles, les écoles élémentaires et les collèges, l’utilisation durant toute activité d’enseignement et dans les lieux prévus par le règlement intérieur, par un élève, d’un téléphone mobile est interdite », mais son application n’est pas si simple. À l’époque, Jean-Michel Blanquer promettait de « faire respecter les règles et le droit ».

Mais en 2025, le dossier n’est pas encore résolu. En avril dernier, Élisabeth Borne a annoncé qu’elle souhaitait que la « pause numérique » – l’interdiction pour les élèves d’utiliser leur smartphone au sein de l’établissement – soit « généralisée à tous les collèges à la prochaine rentrée ». Mais, en septembre, selon le syndicat majoritaire des chefs d’établissement SNPDEN-UNSA cité par le Monde, seuls 9 % des collèges avaient mis en place le dispositif.

Début novembre, en réponse à une question sur le nombre de collèges appliquant le dispositif de la sénatrice Les Républicains Agnès Evren, le nouveau ministre de l’Éducation nationale, Édouard Geffray, répondait de manière évasive : « je ne peux que souscrire à l’idée de mettre le portable en pause et d’installer des casiers de stockage lorsque c’est possible, mais je rappelle que la première pause du portable est l’interdiction, qu’il nous revient de faire respecter. Je ne peux que me réjouir des cas où il est possible de conforter l’interdiction avec des installations spécifiques, mais je ne peux pas imposer aux départements d’acquérir des casiers. Plusieurs centaines d’établissements fonctionnent ainsi, avec des retours qui laissent apparaître une nette satisfaction ».

Une volonté présidentielle qui n’est pas encore inscrite dans la loi

Le portable n’est donc pas encore sorti des collèges, même si, selon France Info, Emmanuel Macron estime que l’interdiction dans les collèges « marche plutôt bien, parce que c’est une interdiction nationale, c’est assumé ».

Pour ce qui est des lycées, Édouard Geffray semble donc être « en train de regarder ça », selon le président de la République. Mais il faut qu’un texte législatif soit voté avant qu’il puisse être appliqué « à la rentrée prochaine ».

La députée Renaissance Laure Miller a déposé le mardi 18 novembre 2025 une proposition de loi « visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » qui propose, entre autres, d’ « étendre aux lycées l’interdiction de l’utilisation des téléphones portables, dans les mêmes conditions que dans les autres établissements scolaires ». Reste à ce que l’article en question ainsi que la loi soient votés par l’Assemblée nationale et le Sénat, et que les décrets soient promulgués avant la rentrée 2026.

  •  

Arnaques financières : les réseaux sociaux mis devant leurs responsabilités en Europe

Complicité de scam
Arnaques financières : les réseaux sociaux mis devant leurs responsabilités en Europe

Le Conseil et le Parlement européen ont trouvé un accord sur de nouvelles règles à propos de la fraude en ligne et l’utilisation abusive des données. Notamment, les plateformes devront faire face à leurs responsabilités si elles n’ont pas supprimé des contenus frauduleux signalés qui ont atteint des victimes.

« Historique : Nous nous attaquons à l’industrie de la fraude numérique », a exulté le député européen du Danemark Morten Løkkegaard (Renew) sur Facebook. « Le Parlement et le Conseil ont conclu un accord visant à rendre le secteur des services de paiement de l’UE plus ouvert et plus concurrentiel, tout en le dotant de solides défenses contre la fraude et les violations de données », explique la députée européenne Place publique sur X.

Ce jeudi 27 novembre, le Conseil et le Parlement européen ont annoncé s’être mis d’accord à propos de deux textes sur la régulation des paiements en ligne (le Payment Services Regulation et la directive Payment Services Directive 3, PSD3), comme l’a repéré Politico. Il reste une dernière étape pour qu’il puisse entrer en vigueur : une adoption formelle par les deux institutions.

Renfort de la coopération entre prestataires de services de paiement

Le Conseil de l’Europe explique que « l’objectif de ces nouvelles règles est de mieux lutter contre la fraude aux paiements, d’améliorer la transparence des frais et de renforcer la protection des consommateurs dans le secteur des services de paiement ». L’idée est de mettre à jour la législation européenne face aux nombreuses tentatives de phishings auxquelles nous faisons face.

Ces textes renforcent, entre autres, les obligations des prestataires de services de paiement concernant les fraudes : obligation de partager entre eux les informations sur des cas repérés mais aussi de vérifier les numéros IBAN avant tout virement (et pas seulement sur les virements instantanés en euros comme actuellement). Ils seront aussi tenus responsables s’ils n’ont pas mis en place certains outils préventifs face à la fraude.

Une attention obligatoire sur les signalements de fraude

Mais ces textes donnent aussi une responsabilité à d’autres acteurs jusque-là laissés tranquilles sur le sujet. Ainsi les réseaux sociaux seront responsables envers les prestataires de services de paiement qui auront remboursé des clients victimes de fraude si celle-ci a été effectuée en passant par un message publié sur leur plateforme qui aurait été préalablement signalé.

Le Parlement européen explique aussi que les annonceurs de services financiers vont devoir démontrer aux très grandes plateformes en ligne (VLOPs) et moteurs de recherche (VLOSE) qu’ils sont « légalement autorisés (ou officiellement exemptés) dans le pays concerné à offrir ces services, ou qu’ils font de la publicité pour le compte d’une personne qui l’est ».

Rappelons que des documents internes à Meta ont récemment révélé que le groupe de Mark Zuckerberg prévoit de générer 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars, à partir d’arnaques et de publicités frauduleuses.

Les négociateurs européens s’appuient notamment sur le DSA et le DMA pour établir ces nouvelles règles.

« Ce cadre complexe sape les efforts de simplification et risque d’entrer en conflit avec l’interdiction de la surveillance générale prévue par le DSA, ignorant ainsi les nombreuses études qui avertissent que cela serait contre-productif. Au lieu de protéger les consommateurs, le résultat obtenu aujourd’hui crée un dangereux précédent et décharge de leur responsabilité ceux qui sont les mieux placés pour prévenir la fraude », a réagi Leonardo Veneziani, représentant du lobby du numérique états-unien CCIA (regroupant notamment Amazon, Google, Apple, Meta et Shopify).

  •  

Arnaques financières : les réseaux sociaux mis devant leurs responsabilités en Europe

Complicité de scam
Arnaques financières : les réseaux sociaux mis devant leurs responsabilités en Europe

Le Conseil et le Parlement européen ont trouvé un accord sur de nouvelles règles à propos de la fraude en ligne et l’utilisation abusive des données. Notamment, les plateformes devront faire face à leurs responsabilités si elles n’ont pas supprimé des contenus frauduleux signalés qui ont atteint des victimes.

« Historique : Nous nous attaquons à l’industrie de la fraude numérique », a exulté le député européen du Danemark Morten Løkkegaard (Renew) sur Facebook. « Le Parlement et le Conseil ont conclu un accord visant à rendre le secteur des services de paiement de l’UE plus ouvert et plus concurrentiel, tout en le dotant de solides défenses contre la fraude et les violations de données », explique la députée européenne Place publique sur X.

Ce jeudi 27 novembre, le Conseil et le Parlement européen ont annoncé s’être mis d’accord à propos de deux textes sur la régulation des paiements en ligne (le Payment Services Regulation et la directive Payment Services Directive 3, PSD3), comme l’a repéré Politico. Il reste une dernière étape pour qu’il puisse entrer en vigueur : une adoption formelle par les deux institutions.

Renfort de la coopération entre prestataires de services de paiement

Le Conseil de l’Europe explique que « l’objectif de ces nouvelles règles est de mieux lutter contre la fraude aux paiements, d’améliorer la transparence des frais et de renforcer la protection des consommateurs dans le secteur des services de paiement ». L’idée est de mettre à jour la législation européenne face aux nombreuses tentatives de phishings auxquelles nous faisons face.

Ces textes renforcent, entre autres, les obligations des prestataires de services de paiement concernant les fraudes : obligation de partager entre eux les informations sur des cas repérés mais aussi de vérifier les numéros IBAN avant tout virement (et pas seulement sur les virements instantanés en euros comme actuellement). Ils seront aussi tenus responsables s’ils n’ont pas mis en place certains outils préventifs face à la fraude.

Une attention obligatoire sur les signalements de fraude

Mais ces textes donnent aussi une responsabilité à d’autres acteurs jusque-là laissés tranquilles sur le sujet. Ainsi les réseaux sociaux seront responsables envers les prestataires de services de paiement qui auront remboursé des clients victimes de fraude si celle-ci a été effectuée en passant par un message publié sur leur plateforme qui aurait été préalablement signalé.

Le Parlement européen explique aussi que les annonceurs de services financiers vont devoir démontrer aux très grandes plateformes en ligne (VLOPs) et moteurs de recherche (VLOSE) qu’ils sont « légalement autorisés (ou officiellement exemptés) dans le pays concerné à offrir ces services, ou qu’ils font de la publicité pour le compte d’une personne qui l’est ».

Rappelons que des documents internes à Meta ont récemment révélé que le groupe de Mark Zuckerberg prévoit de générer 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars, à partir d’arnaques et de publicités frauduleuses.

Les négociateurs européens s’appuient notamment sur le DSA et le DMA pour établir ces nouvelles règles.

« Ce cadre complexe sape les efforts de simplification et risque d’entrer en conflit avec l’interdiction de la surveillance générale prévue par le DSA, ignorant ainsi les nombreuses études qui avertissent que cela serait contre-productif. Au lieu de protéger les consommateurs, le résultat obtenu aujourd’hui crée un dangereux précédent et décharge de leur responsabilité ceux qui sont les mieux placés pour prévenir la fraude », a réagi Leonardo Veneziani, représentant du lobby du numérique états-unien CCIA (regroupant notamment Amazon, Google, Apple, Meta et Shopify).

  •  

Terres rares : des pistes pour une utilisation plus sobre

Creuser, mais proprement ?
Terres rares : des pistes pour une utilisation plus sobre

L’enjeu de l’utilisation des terres rares est crucial : industriel, technologique, géopolitique, économique, environnemental et sanitaire. Le CNRS a lancé une initiative pour établir l’état des connaissances scientifiques sur leur utilisation, les possibilités d’usages plus sobres, leur recyclage ainsi que de l’amélioration de leurs modes d’extraction.

Les « éléments de terres rares » (ETR), ou plus couramment nommés terres rares, sont quasiment partout dans nos appareils technologiques, du smartphone aux avions en passant par les voitures électriques mais surtout les éoliennes offshore.

Plus précisément, on les retrouve dans les aimants permanents des écouteurs intra-auriculaires, des véhicules électriques et des éoliennes offshore ou dans les poudres de polissage pour les verres optiques (lentilles, écrans plats, smartphones, etc.) ou les semi-conducteurs. Mais aussi dans les anodes des batteries NiMH utilisées dans les voitures hybrides ou les matériaux luminescents utilisés pour les LED de lumières blanches. D’autres usages existent aussi, même s’ils sont plus faibles : dans certains verres, dans les agents de contraste pour l’imagerie médicale ou comme catalyseurs dans l’industrie chimique.

L’accès à ces matériaux est rendu de plus en plus compliqué par les tensions géopolitiques, les enjeux commerciaux internationaux et même des négociations en temps de guerre.

Le CNRS a décidé de lancer une initiative pour faire le tour des connaissances scientifiques sur ces matériaux, de leurs usages, des éventuelles façons de s’en passer ou du moins de les utiliser en quantité réduite ou de les recycler. Le centre de recherche publie ainsi un document de 84 pages sur le sujet [PDF] mobilisant une équipe de 14 expertes et experts principaux aussi bien chimistes que géologues, écotoxicologues, philosophes, sociologues, juristes ou physiciens.

Des réserves surtout situées en Chine et au Brésil

Ils y rappellent d’abord que ces 17 éléments chimiques sont des matériaux stratégiques et critiques, mais la plupart sont relativement abondants dans la croûte terrestre. Seul le scandium ne se trouve pas avec les autres ETR dans les environnements géologiques. « Il représente donc des ressources et des marchés distincts », expliquent les chercheurs qui l’ont exclu de leur étude.

« En 2017, les ressources mondiales en ETR sont estimées à 478,14 millions de tonnes (Mt) « d’oxydes d’ETR équivalents » ». On parle en « oxydes d’ETR équivalents » de façon standardisée même si les ressources ne contiennent pas d’oxydes d’ETR réellement produits. Mais, sur ces 478,14 millions de tonnes, en 2025, environ 100 millions de tonnes sont des ressources réellement exploitables (appelées réserves en géologie).

Elles sont réparties inéquitablement sur le globe avec deux pays qui concentrent les réserves : la Chine (44 %) et le Brésil (21 %) :

D’où les capacités importantes de la Chine à imposer des restrictions mais aussi de drastiquement augmenter sa production comme depuis 2019 :

Les chercheurs expliquent que nos besoins en ressources « ne peuvent être assurés uniquement par une relance de l’extraction sur le territoire national » et proposent donc « des usages plus responsables, qui réduisent notre dépendance à des approvisionnements étrangers », avec trois pistes : réduire, recycler, extraire autrement.

Des terres rares souvent pas indispensables mais accélératrices de performances

Concernant la réduction de leur utilisation, les chercheurs remarquent que les terres rares ne sont souvent pas indispensables pour le fonctionnement du produit dans lequel ils sont utilisés. Elles peuvent « faire l’objet d’une substitution dans la plupart des usages mais souvent au prix de compromis sur les performances des matériaux et dispositifs ».


Il reste 49% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

L’IA générative dans l’Éducation nationale : « pour l’instant, c’est du bricolage »

Et ils pompaient, pompaient…
L’IA générative dans l’Éducation nationale : « pour l’instant, c’est du bricolage »

Alors que le ministère de l’Éducation incite les enseignants à utiliser l’IA sans leur donner un réel cadre d’usage, les quelques enseignants qui l’utilisent doivent bricoler dans leur coin. Il n’y a pas d’outil à disposition pour enseigner leurs usages. Les programmes scolaires ne permettent pas de prendre le temps d’aborder les questions autour du fonctionnement de l’IA générative et des problématiques qui l’entourent.

Depuis l’arrivée de ChatGPT, le milieu de l’éducation se demande comment faire avec… ou sans. Les IA génératives ont remis en question, non seulement la manière dont les élèves peuvent percevoir l’enseignement en classe, mais aussi comment ils peuvent se percevoir eux-mêmes face à l’apprentissage : à quoi bon apprendre si une machine peut recracher pour nous en un instant un savoir qu’on nous demande de retranscrire dans les devoirs ?

De leur côté, les enseignants ont rapidement ressenti les difficultés de détecter un texte généré par IA et de le prouver ou d’adapter leur enseignement et le contrôle de connaissance pour ne pas se poser la question. Des recherches montrent aussi que, comme l’utilisation de l’IA dans les outils d’imagerie médicale fait baisser les capacités de détection du personnel médical, l’utilisation de l’IA dans l’apprentissage des maths en lycée booste les résultats avant de les voir régresser quand on demande aux élèves de s’en passer.

Une volonté de la hiérarchie d’y « aller à fond sur l’IA »

On pourrait se dire que l’intégration de l’IA générative au sein même de l’Éducation nationale via des cours permettrait d’adapter l’école à ce changement. Le ministère semble aller dans cette voie : « L’institution pousse, à l’heure actuelle, à expérimenter tous azimuts. Il y a des initiatives partout de plein de rectorats qui font des expérimentations IA », explique à Next Amélie Hart, secrétaire nationale du syndicat SNES-FSU et enseignante en lycée en Histoire-Géographie, mais sans réel cadre.

« Il y a une volonté de la hiérarchie de l’Éducation nationale à aller à fond sur les IA, y compris en étant hyper mal formés sur les enjeux de la protection des données (qui n’a pas commencé avec l’IA) », ajoute-t-elle. Sur le côté y aller à fond sans formation, on a un peu l’impression de revivre les périodes de confinement avec la « continuité pédagogique ». Cela soulevait les mêmes questions de protection des données et de souveraineté. Cinq ans plus tard, la leçon ne semble pas apprise.

Résultat, « pour l’instant, c’est du bricolage », estime Christophe Cailleaux, le coresponsable du groupe numérique du SNES-FSU, « tout le monde fait à sa sauce et dans son coin ».


Il reste 67% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

L’IA dans l’éducation, un cadrage par le ministère… sans réel cadre pour les enseignants

♩♫♩ ‎We don't need no thought control ♪ ♩ ♩
L’IA dans l’éducation, un cadrage par le ministère… sans réel cadre pour les enseignants

En septembre dernier, les enseignants et les élèves entamaient la quatrième année scolaire avec l’IA générative dans toutes les mains. Le ministère a proposé un « Cadre d’usage de l’IA en éducation » mais celui-ci est critiqué pour son manque de clarté et de praticité.

En novembre 2022, OpenAI lançait ChatGPT et, dès ce moment, beaucoup d’élèves et d’étudiants ont utilisé les nouvelles applications pour générer des réponses à leurs devoirs sans qu’ils ne reçoivent de réelle formation à propos de ces outils. Que ce soit pour en connaître leurs fonctionnements, leurs limites ou la façon de les utiliser. En tout cas, dans le cadre d’une structuration claire des savoirs pensée au sein de l’Éducation nationale.

En mai dernier, le ministère de l’Éducation nationale publiait un « Cadre d’usage de l’IA en éducation ». Celui-ci a pour objectif, selon le ministère, « d’apporter des réponses claires aux interrogations légitimes de l’ensemble de la communauté éducative et des agents sur l’usage de l’IA en éducation ». Dans sa présentation, l’institution ajoutait : « l’usage de l’IA est autorisé en éducation dès lors qu’il respecte le cadre défini ».

Pas de consignes claires sauf l’interdiction avant la quatrième

Le Cadre du ministère est un document d’une quinzaine de pages. Mais les premières pages sont surtout composées d’explications sur le pourquoi de ce document, de définitions de l’IA et d’un constat sur les potentialités et les risques dans l’usage de l’IA et évoquent des interrogations que soulèvent certains usages sans entrer dans les détails.

De réponses claires, le document en semble peu pourvu pour faire comprendre aux enseignants comment et quand utiliser l’IA de façon concrète.

Enfin, une chose y est quand même claire : pas d’utilisation pédagogique de l’IA à l’école avant la quatrième. Avant cette classe, les élèves doivent être sensibilisés mais ne peuvent toucher aux outils en classe. Après, l’utilisation de l’IA est autorisée « en lien avec les objectifs des programmes scolaires et du CRCN » (le « cadre de référence des compétences numériques » qui met en place des évaluations des compétences, notamment via les parcours Pix à passer en ligne).

Le ministère « se positionne dans un monde idéal »

Mais, « dans ce cadre d’usage, il n’y a pas de cadre », estime Amélie Hart, secrétaire nationale du syndicat SNES-FSU et enseignante en lycée en Histoire-Géographie, interrogée par Next. Pour elle, ce document devrait expliquer plus précisément les restrictions d’utilisation de l’IA dans l’enseignement.


Il reste 63% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Fuite de données concernant les utilisateurs de l’API d’OpenAI

L’entreprise de Sam Altman vient de publier un texte expliquant que les données d’utilisateurs de son API via l’OpenAI Platform ont fuité.

Selon OpenAI, cette fuite concerne :

  • Le nom fourni pour le compte API ;
  • l’adresse e-mail associée au compte API ;
  • la localisation approximative basée sur le navigateur de l’utilisateur API (ville, état, pays) ;
  • le système d’exploitation et le navigateur utilisés pour accéder au compte API ;
  • les sites web référents ;
  • les identifiants d’organisation ou d’utilisateur associés au compte API.

L’entreprise pointe du doigt un de ses sous-traitants : Mixpanel. Celui-ci se serait aperçu le 9 novembre qu’un pirate aurait eu accès à une partie de ses systèmes et exporté un ensemble de données. Mixpanel a informé OpenAI qu’elle enquêtait sur cette fuite et a ensuite partagé le jeu de données concerné avec le créateur de ChatGPT le 25 novembre.

OpenAI explique qu’elle continue à travailler sur le sujet avec MixPanel et d’autres partenaires mais que Mixpanel ne fait d’ores et déjà plus partie de ses sous-traitants.

Dans sa communication, OpenAI affirme qu’ « aucune conversation, requête API, donnée d’utilisation API, mot de passe, identifiant, clé API, détail de paiement ou pièce d’identité officielle n’a été compromis ou divulgué ».

Elle ajoute qu’elle ne recommande donc pas de réinitialisation de mot de passe ou de rotation des clés en réponse à cet incident. L’entreprise incite par contre ses utilisateurs à activer l’authentification multifacteur en tant que bonne pratique.

OpenAI assure qu’elle va informer tous les utilisateurs et organisations concernés individuellement et qu’elle reste en contact avec Mixpanel afin de déterminer les mesures à prendre.

  •  

☕️ Fuite de données concernant les utilisateurs de l’API d’OpenAI

L’entreprise de Sam Altman vient de publier un texte expliquant que les données d’utilisateurs de son API via l’OpenAI Platform ont fuité.

Selon OpenAI, cette fuite concerne :

  • Le nom fourni pour le compte API ;
  • l’adresse e-mail associée au compte API ;
  • la localisation approximative basée sur le navigateur de l’utilisateur API (ville, état, pays) ;
  • le système d’exploitation et le navigateur utilisés pour accéder au compte API ;
  • les sites web référents ;
  • les identifiants d’organisation ou d’utilisateur associés au compte API.

L’entreprise pointe du doigt un de ses sous-traitants : Mixpanel. Celui-ci se serait aperçu le 9 novembre qu’un pirate aurait eu accès à une partie de ses systèmes et exporté un ensemble de données. Mixpanel a informé OpenAI qu’elle enquêtait sur cette fuite et a ensuite partagé le jeu de données concerné avec le créateur de ChatGPT le 25 novembre.

OpenAI explique qu’elle continue à travailler sur le sujet avec MixPanel et d’autres partenaires mais que Mixpanel ne fait d’ores et déjà plus partie de ses sous-traitants.

Dans sa communication, OpenAI affirme qu’ « aucune conversation, requête API, donnée d’utilisation API, mot de passe, identifiant, clé API, détail de paiement ou pièce d’identité officielle n’a été compromis ou divulgué ».

Elle ajoute qu’elle ne recommande donc pas de réinitialisation de mot de passe ou de rotation des clés en réponse à cet incident. L’entreprise incite par contre ses utilisateurs à activer l’authentification multifacteur en tant que bonne pratique.

OpenAI assure qu’elle va informer tous les utilisateurs et organisations concernés individuellement et qu’elle reste en contact avec Mixpanel afin de déterminer les mesures à prendre.

  •  

☕️ HP licencie 10 % de ses salariés, Apple quelques dizaines dans son service commercial

De 4 000 à 6 000 postes seront supprimés chez HP d’ici la fin de l’année fiscale 2028, annonce l’entreprise (pdf).

HP affirme mettre en place son plan de restructuration en parallèle d’une adoption massive de l’IA en interne. « Nous pensons sincèrement qu’il s’agit d’une occasion unique à ne pas manquer pour poursuivre la transformation de l’entreprise et rester compétitifs pendant les 10 ou 20 prochaines années », affirme Enrique Lores, le CEO de HP, au Wall Street Journal.

Le journal économique états-unien affirme que l’entreprise prévoit également d’augmenter le prix de ses appareils – tout en réduisant la quantité de mémoire – et de travailler avec des fournisseurs moins chers.

Comme l’indique l’AFP, la bourse de New York a plutôt mal réagi à cette annonce conjuguée à la publication d’objectifs inférieurs aux attentes, avec une baisse des échanges post-clôture de 6 %.

De son côté, Apple prévoit quelques dizaines de licenciements dans son service commercial, notamment pour la vente des produits aux entreprises, aux établissements scolaires et aux administrations publiques, ce qui constitue un licenciement rare pour le fabricant de l’iPhone, explique Bloomberg.

  •  

☕️ HP licencie 10 % de ses salariés, Apple quelques dizaines dans son service commercial

De 4 000 à 6 000 postes seront supprimés chez HP d’ici la fin de l’année fiscale 2028, annonce l’entreprise (pdf).

HP affirme mettre en place son plan de restructuration en parallèle d’une adoption massive de l’IA en interne. « Nous pensons sincèrement qu’il s’agit d’une occasion unique à ne pas manquer pour poursuivre la transformation de l’entreprise et rester compétitifs pendant les 10 ou 20 prochaines années », affirme Enrique Lores, le CEO de HP, au Wall Street Journal.

Le journal économique états-unien affirme que l’entreprise prévoit également d’augmenter le prix de ses appareils – tout en réduisant la quantité de mémoire – et de travailler avec des fournisseurs moins chers.

Comme l’indique l’AFP, la bourse de New York a plutôt mal réagi à cette annonce conjuguée à la publication d’objectifs inférieurs aux attentes, avec une baisse des échanges post-clôture de 6 %.

De son côté, Apple prévoit quelques dizaines de licenciements dans son service commercial, notamment pour la vente des produits aux entreprises, aux établissements scolaires et aux administrations publiques, ce qui constitue un licenciement rare pour le fabricant de l’iPhone, explique Bloomberg.

  •  

Mission Genesis : Trump confie la recherche américaine à l’IA

What could go wrong?
Mission Genesis : Trump confie la recherche américaine à l’IA

Après avoir attaqué le financement des agences scientifiques états-uniennes avec le DOGE, Donald Trump annonce le lancement d’une « Mission Genesis » pour « utiliser l’intelligence artificielle (IA) pour transformer la manière dont la recherche scientifique est menée et accélérer le rythme des découvertes scientifiques ».

Donald Trump a signé ce lundi 24 novembre un décret créant une mission nommée Genesis visant à pousser les laboratoires scientifiques états-uniens à utiliser massivement l’IA. La Maison-Blanche affirme que cette mission doit « accroître considérablement la productivité et l’impact de la recherche et développement fédérale au cours de la prochaine décennie ».

Le dirigeant états-unien, qui a massivement désorganisé les agences scientifiques américaines avec le DOGE, les a poussées à supprimer des données scientifiques et à baisser drastiquement leur budget, prétend maintenant « accélérer le rythme des découvertes » en investissant dans la « science basée sur l’IA ».

Encore une comparaison au projet Manhattan

Dans son décret, Donald Trump compare l’ambition de cette Mission Genesis à celle du Projet Manhattan, considérant que nous sommes « à un moment charnière » où « les défis auxquels nous sommes confrontés » exigent un effort national historique pour les États-Unis. Rappelons qu’il y a un an, Donald Trump comparait déjà un autre projet au fameux plan états-unien dont l’objectif était de produire une bombe atomique au cours de la Seconde Guerre mondiale : c’était le DOGE, qui vient d’être officiellement démantelé.

Le texte du décret présente cette mission comme « un effort national coordonné et dédié visant à ouvrir une nouvelle ère d’innovation et de découvertes accélérées par l’IA, capables de résoudre les problèmes les plus complexes de ce siècle ». Si cette comparaison et l’emphase du texte suggèrent un investissement colossal de son pays dans l’IA utilisée dans la recherche, le dirigeant états-unien n’indique aucun chiffre concernant le budget qu’il souhaiterait investir dans cette mission.

Il ajoute que la Mission Genesis « permettra de créer une plateforme d’IA intégrée afin d’exploiter les jeux de données scientifiques fédéraux — qui constituent la plus grande collection au monde de ce type de données développée grâce à des décennies d’investissements fédéraux — pour entrainer des modèles scientifiques de fondation et créer des agents d’IA afin de tester de nouvelles hypothèses, d’automatiser les flux de travail de recherche et d’accélérer les avancées scientifiques ».

Le département de l’Énergie des États-Unis aux manettes

Donald Trump confie la responsabilité de la mission au directeur de son Bureau de la politique scientifique et technologique, Michael Kratsios. Le secrétaire d’État à l’Énergie, Chris Wright, doit en assurer la maîtrise d’œuvre, le décret précisant qu’il doit « mettre en place et exploiter » ce que le texte appelle « la plateforme américaine pour la science et la sécurité ».

NBC souligne que cette annonce suit celle faite fin octobre par le département de l’Énergie états-unien de la création de deux supercalculateurs (Discovery et Lux) pour son laboratoire Oak Ridge en collaboration avec AMD et HPE (Hewlett Packard Enterprise). « En collaboration avec AMD et HPE, nous mettons en ligne de nouvelles capacités plus rapidement que jamais, transformant l’innovation partagée en force nationale et prouvant que l’Amérique est en tête lorsque les partenaires privés et publics travaillent ensemble », affirmait Chris Wright à cette occasion.

Coïncidence avec l’insistance de l’industrie de l’IA à comparer ses modèles au niveau des chercheurs

Le décret demande au secrétaire d’État à l’Énergie d’identifier d’ici deux mois une liste d’ « au moins 20 challenges scientifiques et technologiques d’importance nationale » qui relèveraient de la mission et qui concerneraient notamment « la fabrication de pointe, les biotechnologies, les matériaux « critiques », la fission et la fusion nucléaire, l’information quantique et la microélectronique (entre autres les semi-conducteurs) ».

Cette « Mission Genesis » remet ainsi en perspective la course des entreprises d’IA générative pour annoncer que leurs modèles sont capables d’ « accélérer la science ». Récemment, Anthropic a ainsi annoncé « Claude for Life Sciences » mais OpenAI a été jusqu’à transformer son opération de marketing en pseudo article scientifique. Cet été, Elon Musk avait affirmé que Grok 4 était « plus intelligent que presque tous les docteurs, dans toutes les disciplines, simultanément ».

  •  

Mission Genesis : Trump confie la recherche américaine à l’IA

What could go wrong?
Mission Genesis : Trump confie la recherche américaine à l’IA

Après avoir attaqué le financement des agences scientifiques états-uniennes avec le DOGE, Donald Trump annonce le lancement d’une « Mission Genesis » pour « utiliser l’intelligence artificielle (IA) pour transformer la manière dont la recherche scientifique est menée et accélérer le rythme des découvertes scientifiques ».

Donald Trump a signé ce lundi 24 novembre un décret créant une mission nommée Genesis visant à pousser les laboratoires scientifiques états-uniens à utiliser massivement l’IA. La Maison-Blanche affirme que cette mission doit « accroître considérablement la productivité et l’impact de la recherche et développement fédérale au cours de la prochaine décennie ».

Le dirigeant états-unien, qui a massivement désorganisé les agences scientifiques américaines avec le DOGE, les a poussées à supprimer des données scientifiques et à baisser drastiquement leur budget, prétend maintenant « accélérer le rythme des découvertes » en investissant dans la « science basée sur l’IA ».

Encore une comparaison au projet Manhattan

Dans son décret, Donald Trump compare l’ambition de cette Mission Genesis à celle du Projet Manhattan, considérant que nous sommes « à un moment charnière » où « les défis auxquels nous sommes confrontés » exigent un effort national historique pour les États-Unis. Rappelons qu’il y a un an, Donald Trump comparait déjà un autre projet au fameux plan états-unien dont l’objectif était de produire une bombe atomique au cours de la Seconde Guerre mondiale : c’était le DOGE, qui vient d’être officiellement démantelé.

Le texte du décret présente cette mission comme « un effort national coordonné et dédié visant à ouvrir une nouvelle ère d’innovation et de découvertes accélérées par l’IA, capables de résoudre les problèmes les plus complexes de ce siècle ». Si cette comparaison et l’emphase du texte suggèrent un investissement colossal de son pays dans l’IA utilisée dans la recherche, le dirigeant états-unien n’indique aucun chiffre concernant le budget qu’il souhaiterait investir dans cette mission.

Il ajoute que la Mission Genesis « permettra de créer une plateforme d’IA intégrée afin d’exploiter les jeux de données scientifiques fédéraux — qui constituent la plus grande collection au monde de ce type de données développée grâce à des décennies d’investissements fédéraux — pour entrainer des modèles scientifiques de fondation et créer des agents d’IA afin de tester de nouvelles hypothèses, d’automatiser les flux de travail de recherche et d’accélérer les avancées scientifiques ».

Le département de l’Énergie des États-Unis aux manettes

Donald Trump confie la responsabilité de la mission au directeur de son Bureau de la politique scientifique et technologique, Michael Kratsios. Le secrétaire d’État à l’Énergie, Chris Wright, doit en assurer la maîtrise d’œuvre, le décret précisant qu’il doit « mettre en place et exploiter » ce que le texte appelle « la plateforme américaine pour la science et la sécurité ».

NBC souligne que cette annonce suit celle faite fin octobre par le département de l’Énergie états-unien de la création de deux supercalculateurs (Discovery et Lux) pour son laboratoire Oak Ridge en collaboration avec AMD et HPE (Hewlett Packard Enterprise). « En collaboration avec AMD et HPE, nous mettons en ligne de nouvelles capacités plus rapidement que jamais, transformant l’innovation partagée en force nationale et prouvant que l’Amérique est en tête lorsque les partenaires privés et publics travaillent ensemble », affirmait Chris Wright à cette occasion.

Coïncidence avec l’insistance de l’industrie de l’IA à comparer ses modèles au niveau des chercheurs

Le décret demande au secrétaire d’État à l’Énergie d’identifier d’ici deux mois une liste d’ « au moins 20 challenges scientifiques et technologiques d’importance nationale » qui relèveraient de la mission et qui concerneraient notamment « la fabrication de pointe, les biotechnologies, les matériaux « critiques », la fission et la fusion nucléaire, l’information quantique et la microélectronique (entre autres les semi-conducteurs) ».

Cette « Mission Genesis » remet ainsi en perspective la course des entreprises d’IA générative pour annoncer que leurs modèles sont capables d’ « accélérer la science ». Récemment, Anthropic a ainsi annoncé « Claude for Life Sciences » mais OpenAI a été jusqu’à transformer son opération de marketing en pseudo article scientifique. Cet été, Elon Musk avait affirmé que Grok 4 était « plus intelligent que presque tous les docteurs, dans toutes les disciplines, simultanément ».

  •  

Meta aurait enterré des recherches internes sur les méfaits des réseaux sociaux

Chut
Meta aurait enterré des recherches internes sur les méfaits des réseaux sociaux

Dans un procès qui oppose Meta à plusieurs districts scolaires états-uniens, l’entreprise de Mark Zuckerberg voit remonter l’évocation de recherches internes non rendues publiques montrant que les personnes qui ont cessé d’utiliser Facebook sont devenues moins déprimées et moins anxieuses.

Depuis 2022, Meta fait face à une plainte de plusieurs districts scolaires états-uniens concernant l’addiction des adolescents aux réseaux sociaux et qui accusent l’entreprise de proposer « des produits défectueux ».

Selon un des documents produits lors de ce procès, Meta aurait arrêté des travaux de recherches internes montrant des preuves de causalité entre l’utilisation du réseau social et la santé mentale de ses utilisateurs, explique Reuters.

Un projet abandonné après des signes problématiques sur l’utilisation des réseaux

Fin 2019, l’entreprise a mis en place, selon ce document [PDF], ce qu’elle a nommé le « Projet Mercury » : un travail en collaboration avec l’entreprise de sondage Nielsen sur les effets liés au fait de « désactiver » Facebook. « Les personnes qui ont cessé d’utiliser Facebook pendant une semaine ont déclaré ressentir moins de dépression, d’anxiété, de solitude et de comparaison sociale » montrent des tests pilotes de cette étude.

« Mais au lieu d’aller plus loin ou de sonner l’alarme », affirment les avocats des districts scolaires, « Meta a suspendu le projet, affirmant que les commentaires des participants étaient biaisés par « le résultat du discours médiatique existant autour de l’entreprise » ».

Des craintes internes d’une image proche de celle de l’industrie du tabac si le travail était enterré

En interne, cet arrêt a été critiqué par certains : « L’étude Nielsen montre effectivement un impact causal sur la comparaison sociale.☹ », a écrit un chercheur de Meta anonyme. Un autre employé s’inquiétait d’une éventuelle fuite de l’enterrement de ce projet : « Si les résultats sont mauvais et que nous ne les publions pas, mais qu’ils fuitent, cela ressemblera-t-il aux fabricants de tabac qui menaient des recherches, savaient que les cigarettes étaient nocives, mais gardaient cette information pour eux ? ». Et ils accusent Meta de ne pas avoir publié ces résultats : « À la place, Meta a menti au Congrès sur ce qu’elle savait », affirment-ils.

« Nous sommes en total désaccord avec ces allégations, qui s’appuient sur des citations choisies de manière sélective et des opinions erronées dans le but de présenter une image délibérément trompeuse », affirme le porte-parole de Meta, Andy Stone comme l’indique CNBC. Pour lui, le projet de l’étude était biaisé : « Il constatait que les personnes qui pensaient que l’utilisation de Facebook leur était néfaste se sentaient mieux lorsqu’elles cessaient de l’utiliser », affirme-t-il sur Bluesky, ajoutant que ça ne serait que la confirmation d’autres études démontrant le même effet. « Cela semble logique intuitivement, mais cela ne montre rien concernant l’effet réel de l’utilisation de la plateforme », défend-il.

Les documents sur lesquels s’appuient les avocats des districts scolaires ne sont pas publics. Reuters explique que l’entreprise a demandé à ce qu’ils soient enlevés du dossier, considérant que leur nature était trop générale et ne concernait pas ce que les plaignants cherchent à prouver.

  •  

Meta aurait enterré des recherches internes sur les méfaits des réseaux sociaux

Chut
Meta aurait enterré des recherches internes sur les méfaits des réseaux sociaux

Dans un procès qui oppose Meta à plusieurs districts scolaires états-uniens, l’entreprise de Mark Zuckerberg voit remonter l’évocation de recherches internes non rendues publiques montrant que les personnes qui ont cessé d’utiliser Facebook sont devenues moins déprimées et moins anxieuses.

Depuis 2022, Meta fait face à une plainte de plusieurs districts scolaires états-uniens concernant l’addiction des adolescents aux réseaux sociaux et qui accusent l’entreprise de proposer « des produits défectueux ».

Selon un des documents produits lors de ce procès, Meta aurait arrêté des travaux de recherches internes montrant des preuves de causalité entre l’utilisation du réseau social et la santé mentale de ses utilisateurs, explique Reuters.

Un projet abandonné après des signes problématiques sur l’utilisation des réseaux

Fin 2019, l’entreprise a mis en place, selon ce document [PDF], ce qu’elle a nommé le « Projet Mercury » : un travail en collaboration avec l’entreprise de sondage Nielsen sur les effets liés au fait de « désactiver » Facebook. « Les personnes qui ont cessé d’utiliser Facebook pendant une semaine ont déclaré ressentir moins de dépression, d’anxiété, de solitude et de comparaison sociale » montrent des tests pilotes de cette étude.

« Mais au lieu d’aller plus loin ou de sonner l’alarme », affirment les avocats des districts scolaires, « Meta a suspendu le projet, affirmant que les commentaires des participants étaient biaisés par « le résultat du discours médiatique existant autour de l’entreprise » ».

Des craintes internes d’une image proche de celle de l’industrie du tabac si le travail était enterré

En interne, cet arrêt a été critiqué par certains : « L’étude Nielsen montre effectivement un impact causal sur la comparaison sociale.☹ », a écrit un chercheur de Meta anonyme. Un autre employé s’inquiétait d’une éventuelle fuite de l’enterrement de ce projet : « Si les résultats sont mauvais et que nous ne les publions pas, mais qu’ils fuitent, cela ressemblera-t-il aux fabricants de tabac qui menaient des recherches, savaient que les cigarettes étaient nocives, mais gardaient cette information pour eux ? ». Et ils accusent Meta de ne pas avoir publié ces résultats : « À la place, Meta a menti au Congrès sur ce qu’elle savait », affirment-ils.

« Nous sommes en total désaccord avec ces allégations, qui s’appuient sur des citations choisies de manière sélective et des opinions erronées dans le but de présenter une image délibérément trompeuse », affirme le porte-parole de Meta, Andy Stone comme l’indique CNBC. Pour lui, le projet de l’étude était biaisé : « Il constatait que les personnes qui pensaient que l’utilisation de Facebook leur était néfaste se sentaient mieux lorsqu’elles cessaient de l’utiliser », affirme-t-il sur Bluesky, ajoutant que ça ne serait que la confirmation d’autres études démontrant le même effet. « Cela semble logique intuitivement, mais cela ne montre rien concernant l’effet réel de l’utilisation de la plateforme », défend-il.

Les documents sur lesquels s’appuient les avocats des districts scolaires ne sont pas publics. Reuters explique que l’entreprise a demandé à ce qu’ils soient enlevés du dossier, considérant que leur nature était trop générale et ne concernait pas ce que les plaignants cherchent à prouver.

  •