Vue normale

Reçu — 8 décembre 2025 Next - Articles gratuits

☕️ OpenAI désactive une fonctionnalité qui permettait de faire la publicité d’une application

8 décembre 2025 à 08:47

Le responsable de la R&D à OpenAI, Mark Chen, a finalement annoncé que son entreprise a désactivé l’affichage de messages publicitaires pour des applications sur les comptes payants de ChatGPT, a repéré TechCrunch.

La semaine dernière, des utilisateurs (avec des comptes payants Pro ou Plus) ont repéré des messages publicitaires sous les réponses que leur générait le chatbot d’OpenAI. On pouvait y voir, par exemple, un message promouvant l’application des magasins Target :

L’entreprise a d’abord refusé d’y voir quelque problème que ce soit. « Ce n’est pas une publicité », affirmait Daniel McAuley, responsable Données chez OpenAI. « Depuis le DevDay, nous avons lancé des applications provenant de certains de nos partenaires pilotes, notamment Target, et nous avons travaillé à rendre le mécanisme de découverte des applications plus organique au sein de ChatGPT. Notre objectif est que les applications améliorent l’expérience utilisateur lorsqu’elles sont pertinentes pour une conversation, et nous y travaillons encore. Tout le monde peut créer des applications à l’aide du SDK, et nous prévoyons d’ouvrir bientôt les soumissions et le répertoire d’applications », ajoutait-il.

De la même manière, Nick Turley, Vice-président d’OpenAI responsable de ChatGPT, affirmait encore samedi : « Je constate beaucoup de confusion au sujet des rumeurs concernant les publicités dans ChatGPT. Il n’existe aucun test en direct pour les publicités : toutes les captures d’écran que vous avez vues ne sont soit pas réelles, soit ne concernent pas des publicités. »

Fin novembre, des utilisateurs avaient déjà remarqué que des références à des fonctionnalités de publicité étaient incluses dans une version beta de l’application Android de ChatGPT.

Reçu — 5 décembre 2025 Next - Articles gratuits

Bruxelles inflige une amende de 120 millions d’euros à X pour infraction au DSA

5 décembre 2025 à 15:41
X n'est pas une marque de transparence
Bruxelles inflige une amende de 120 millions d’euros à X pour infraction au DSA

Après 2 ans d’enquête, la Commission inflige une amende conséquente à X, lui reprochant un manque de transparence et des pratiques trompeuses, notamment sur le changement de signification de la coche bleue.

Près de deux ans après l’ouverture de sa procédure formelle contre X, la Commission européenne annonce avoir infligé une amende de 120 millions d’euros au réseau social d’Elon Musk pour des manquements à ses obligations de transparence imposées par le Règlement sur les services numériques (DSA). En juillet 2024, Bruxelles avait confirmé ses craintes et attaqué X pour violation du DSA.

Coche bleue trompeuse et manque de transparence

En cause, notamment, le changement d’utilisation de la coche bleue, qui servait initialement à certifier l’identité des utilisateurs « vérifiés » par Twitter. Suite à son rachat, Elon Musk l’a ouvert à n’importe quel utilisateur payant pour accéder aux services premium de X. « Cela enfreint l’obligation imposée par le DSA aux plateformes en ligne d’interdire les pratiques trompeuses en matière de conception sur leurs services » explique la Commission dans son communiqué.

« Sur X, n’importe qui peut payer pour obtenir le statut « vérifié » sans que l’entreprise ne vérifie de manière significative qui se cache derrière le compte, ce qui rend difficile pour les utilisateurs de juger de l’authenticité des comptes et des contenus avec lesquels ils interagissent », constate (comme tout le monde) l’administration européenne.

Elle considère que « cette tromperie expose les utilisateurs à des escroqueries, notamment à des fraudes par usurpation d’identité, ainsi qu’à d’autres formes de manipulation par des acteurs malveillants ».

Mais la Commission ne s’est pas arrêtée à la coche bleue. Elle reproche à X (anciennement Twitter) le manque de transparence dans le référentiel des publicités de X qui est censé éclairer les utilisateurs au sujet du ciblage publicitaire comme l’y oblige le DSA. Mais la Commission explique que « X a élaboré un design et des barrières d’accès, tels que des délais de traitement excessifs, qui compromettent l’objectif des référentiels publicitaires ».

Bruxelles reproche aussi au réseau social d’Elon Musk de ne pas fournir aux chercheurs d’accès aux données publiques de sa plateforme.

La Commission souligne que c’est sa première décision de non-conformité avec le DSA. L’entreprise a 60 jours pour prendre des mesures concernant la coche bleue et 90 jours pour proposer un plan d’action qui la mette en conformité avec le DSA. Si tel n’est pas le cas, elle pourrait subir des jour-amendes de pénalité en plus.

Les autorités états-uniennes réagissent vivement

« Tromper les utilisateurs avec des coches bleues, dissimuler des informations sur les publicités et exclure les chercheurs n’ont pas leur place en ligne dans l’UE », commente Henna Virkkunen, vice-présidente exécutive de la Commission européenne à la Souveraineté technologique, à la Sécurité et à la Démocratie :

« La DSA protège les utilisateurs. Le DSA donne aux chercheurs les moyens de mettre au jour les menaces potentielles. Le DSA rétablit la confiance dans l’environnement en ligne. Avec la première décision de non-conformité de la DSA, nous tenons X responsable d’avoir porté atteinte aux droits des utilisateurs et d’avoir éludé ses responsabilités. »

X n’a pas encore réagi et n’a pas répondu à Reuters. Mais du côté états-unien, cette décision européenne n’est pas passée inaperçue et devrait tendre un peu plus les relations entre les deux côtés de l’Atlantique. « Des rumeurs circulent selon lesquelles la Commission européenne infligerait une amende de plusieurs centaines de millions de dollars pour non-respect de la censure », réagissait sur X JD Vance hier soir avant l’annonce officielle, ajoutant que « l’UE devrait soutenir la liberté d’expression au lieu d’attaquer les entreprises américaines pour des futilités ».

Dans le même sens, cette fois après l’officialisation, Brendan Carr, nommé en 2017 par Donald Trump à la Commission fédérale des communications (FCC) qu’il dirige depuis 2024, a affirmé sur X qu’ « une fois de plus, l’Europe inflige une amende à une entreprise technologique américaine prospère pour le simple fait d’être une entreprise technologique américaine prospère » :

« L’Europe impose des taxes aux Américains afin de subventionner un continent freiné par ses propres réglementations étouffantes ».

☕️ Une nouvelle panne Cloudflare a touché de nombreux sites : l’« incident est résolu »

5 décembre 2025 à 09:30

Après la panne intervenue il y a 15 jours, Cloudflare a été touché par un nouvel incident. « Cloudflare enquête sur des problèmes liés à Cloudflare Dashboard et aux API associées », expliquait l’entreprise sur son site d’informations liées aux pannes à 9h56 heure française.

Cloudflare a ensuite ajouté qu’« une correction a été mise en œuvre » et qu’elle surveillait les résultats à 10h12.

Next a pu constater que ce problème a eu une incidence sur des sites grand public comme : Doctolib, Claude.ia, Downdetector (sa version française comme sa version internationale), Quora ou encore Zendesk. Une erreur 500 était affichée sur tous ces sites.

Ces services semblent tous de nouveau accessibles après la correction mise en place. La panne a duré une quinzaine de minutes, mais elle n’est pas passée inaperçue étant donné l’omniprésence de la plateforme sur Internet. À 10h20, Cloudflare annonce que « cet incident est résolu ».

La précédente panne était partie d’un petit changement de permissions.

Reçu — 4 décembre 2025 Next - Articles gratuits

☕️ Prix du logiciel libre de recherche : Aladin lite, l’atlas du ciel récompensé

4 décembre 2025 à 10:36

En ce début décembre, le ministère de l’Enseignement supérieur et de la Recherche a remis les prix de la science ouverte de l’année.

Plusieurs logiciels libres y ont été récompensés :

  • Le prix « scientifique et technique » a été attribué à GNU MPFR, « une bibliothèque libre (GPLv3) de calcul en virgule flottante avec précision arbitraire, reprenant les bonnes idées de la norme IEEE 754, comme l’arrondi correct » ;
  • le « coup de cœur » a mis en avant HyperSpy, « une bibliothèque libre pour Python, en licence GPLv3, qui aide les chercheurs en science des matériaux à analyser et visualiser des données complexes, telles que les ensembles de données multidimensionnels » ,
  • le prix de la documentation a été attribué au langage de programmation Pharo ;
  • et le prix de la communauté a été attribué à la version 3 d’Aladin Lite, un atlas du ciel interactif libre.

Conçu par le Centre de Données astronomiques de Strasbourg (CDS), celui-ci permet de se balader dans le ciel en visualisant des données astronomiques comme celles issues des observatoires européens Gaia ou Euclid :

Mais on peut l’utiliser aussi pour se balader sur Mars. « Simple à intégrer dans d’autres sites ou projets, il offre à tousastronomes, physiciens, passionnés comme curieuxune porte d’entrée vers les richesses du ciel. Interopérable, un très grand nombre de portails web l’utilisent spontanément », explique le ministère. L’ESA, par exemple, utilise déjà Aladin lite pour son site ESAsky. Son code est accessible sur GitHub en licence GPL3.0 et une API est aussi disponible.

L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions

4 décembre 2025 à 09:23
AI journalism
L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions

Le Reuters Institute publie un sondage mené auprès de journalistes britanniques entre aout et novembre 2024. Alors que promesse leur avait été faite que les tâches subalternes seraient minimisées grâce à l’IA, le constat est tout autre.

Le Reuters Institute for the Study of Journalism a conduit un sondage auprès de 1 004 journalistes britanniques entre aout et novembre 2024. Le think tank a publié la semaine dernière son analyse. Si les réponses datent déjà un peu dans un univers du numérique qui évolue très rapidement, on peut néanmoins y piocher quelques éléments intéressants quant à l’usage de l’IA dans les rédactions suite à la diffusion des LLM dans nos vies professionnelles.

Une adoption massive

On se rend compte, avec ce sondage, que les journalistes ont massivement adopté des outils intégrant l’IA puisque plus de la moitié (56 %) d’entre eux les utilisaient l’année dernière au moins de façon hebdomadaire et 27 % au quotidien :

Transcription, traduction et vérification grammaticales en tâches sous-traitées à l’IA générative

Quand on entre dans les détails des tâches effectuées avec l’aide de l’IA dans les rédactions, le Reuters Institute explique que les « trois utilisations les plus fréquentes concernent ce que l’on pourrait appeler le traitement du langage, en particulier la transcription/le sous-titrage (49 % utilisent l’IA pour cette tâche au moins une fois par mois), la traduction (33 %) et la vérification grammaticale/la relecture (30 %) ».

Quand on s’intéresse aux tâches des journalistes qui utilisent quotidiennement l’IA, celle qui revient en premier est la vérification grammaticale/la relecture (14 %), puis viennent la transcription/le sous-titrage (8 %), la traduction (5 %) puis à 4 % la recherche de sujets, le résumé d’infos et la génération d’une partie de l’article (le titre, par exemple).

L’IA générative n’efface pas les tâches subalternes

Mais ce qui est marquant, c’est que les journalistes qui utilisent l’IA de façon quotidienne sont ceux qui se plaignent le plus de travailler trop fréquemment sur des tâches subalternes. Cette classification est laissée à l’appréciation de chaque journaliste, il n’y a pas de définition précise.

Ainsi, 59 % des journalistes qui utilisent l’IA au quotidien et la moitié de ceux qui l’utilisent au moins une fois par mois trouvent qu’ils ont trop de tâches subalternes à accomplir alors que 37 % des journalistes britanniques qui n’utilisent jamais l’IA s’en plaignent :

Le Reuters Institute fait plusieurs hypothèses pour expliquer ces résultats. Avec l’IA, de nouvelles tâches subalternes seraient nécessaires comme le nettoyage des données, la création de prompts ou la vérification de ce qui a été généré. Une autre explication pourrait être que ce sont les journalistes qui estimaient avoir déjà trop de tâches subalternes qui utilisent l’IA pour s’en débarrasser.

Globalement, en 2024, les journalistes britanniques voyaient en l’IA générative plutôt une menace pour le journalisme (à 62 %) alors qu’une petite minorité de 15 % estimait que cette technologie était une vraie opportunité.

« Bien sûr, il est possible de considérer l’IA à la fois comme une menace importante ou très importante et comme une opportunité importante ou très importante, et c’est effectivement l’avis de 5 % des journalistes britanniques », remarque le Reuters Institute, « il convient également de noter que 29 % des journalistes britanniques ne considèrent l’IA ni comme une menace importante ni comme une opportunité importante ».

Quand le Reuters Institute leur a demandé quelles étaient les potentielles conséquences éthiques de l’utilisation de l’IA, ce qui arrive en premier est l’impact négatif sur la confiance du public dans le journalisme, suivi rapidement du manque de précision que ça pourrait engendrer ainsi que du manque d’originalité.

Concernant l’utilisation de l’IA à travers le genre et l’âge, on ne voit pas une différence si importante que ça. En effet, si l’utilisation de l’IA est un peu plus élevée chez les journalistes hommes, au final, les proportions d’utilisation sont proches entre les genres. Et si les jeunes journalistes de moins de 30 ans utilisent plus l’IA au quotidien, la différence entre générations n’est pas marquée :

Reçu — 3 décembre 2025 Next - Articles gratuits

L’IA générative, « instrument de précision » pour la censure et la répression en Chine

3 décembre 2025 à 14:20
La grande murAI
L’IA générative, « instrument de précision » pour la censure et la répression en Chine

Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».

L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.

Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».

Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.

Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.

Une censure par le silence la plupart du temps

C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.

Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.

L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.

Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :

Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».

La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un ✔ représente l’existence de censure dans les réponses du modèle) :

« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.

Un marché concurrentiel de la censure

Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».

Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».

« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :

« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».

Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.

☕️ Le CNRS va proposer son chatbot IA Emmy à ses agents et proscrire les autres

3 décembre 2025 à 14:11

Dans un email envoyé à ses agents le 2 décembre au soir qu’a obtenu Next, la direction du CNRS a annoncé l’ « ouverture d’Emmy, agent conversationnel en intelligence artificielle générative, pour les agents CNRS ».

Accessible via un portail du centre de recherche à partir du 16 décembre 2025, ce chatbot utilisera les modèles de Mistral AI, « grâce à un accord passé » avec l’entreprise, explique la DSI du CNRS.

Dans sa première version accessible aux agents, la DSI met en avant les fonctionnalités suivantes  :

  • traduction de textes en toutes langues ;
  • synthèses de documents ;
  • aide à la reformulation ;
  • aide à la réflexion ;
  • recherche sur le web ;
  • reconnaissance de textes et d’images ;
  • mode « raisonnement » : l’IA traite la question de l’utilisateur étape par étape afin de donner une réponse plus pertinente et plus complète ;
  • collections de documents : permet d’ajouter des documents externes pour contextualiser la réflexion (par exemple un chercheur peut télécharger ses publications pour permettre à l’IA de contextualiser et enrichir ses réponses).

Une page présentant le projet est en ligne depuis tout juste un an.

Le prénom féminin (comme Tay, Siri ou encore Alexa) utilisé pour ce chatbot est présenté comme une référence à la mathématicienne allemande Emmy Noether.

Dans son message, la DSI explique qu’ un « module de sensibilisation à l’intelligence artificielle ainsi que des recommandations d’usage de l’IA générative au CNRS » seront proposés aux agents « d’ici le 16 décembre pour garantir une utilisation d’Emmy dans un cadre sécurisé et adapté ».

Elle ajoute qu’une attestation de suivi de ce module devra être présentée pour accéder à Emmy et qu’ « au regard des risques avérés que présentent les autres outils d’IA en cloud public sur la confidentialité des données et la protection du patrimoine informationnel de l’établissement, tout autre outil d’agent conversationnel en IA générative sera désormais proscrit au CNRS ».

La direction du centre de recherche ne donne par contre pas d’information à ces agents sur le budget consacré à l’accord passé avec Mistral AI.

Reçu — 2 décembre 2025 Next - Articles gratuits

Le gouvernement indien impose la préinstallation d’une application sur les smartphones

2 décembre 2025 à 15:58
Modi's eye
Le gouvernement indien impose la préinstallation d’une application sur les smartphones

Le gouvernement Modi veut que les fabricants de smartphones préinstallent son app Sanchar Saathi, présentée comme une app de cybersécurité, notamment contre les fraudes. Le tollé politique pourrait faire reculer l’interdiction initiale de la désinstaller. Quoiqu’il en soit, Apple ne devrait pas se plier à cette demande, que l’entreprise estime créer des problèmes de confidentialité et de sécurité.

Le 28 novembre dernier, le ministre indien des Communications, Jyotiraditya Scindia, a ordonné aux fabricants et importateurs de smartphones destinés à l’Inde d’installer l’application ministérielle Sanchar Saathi, a révélé l’agence de presse Reuters ce 1er décembre.

Une application gouvernementale obligatoire présentée comme anti-fraude

Dans un communiqué publié le même jour, le ministère assure que cette app est pensée « pour lutter contre l’utilisation abusive des ressources de télécommunication à des fins de cyberfraude et garantir la cybersécurité des télécommunications ». L’application est disponible sur Google Play et l’Apple Store indien et se présente comme « visant à autonomiser les abonnés mobiles, à renforcer leur sécurité et à sensibiliser le public aux initiatives citoyennes ».

Cette décision fait pourtant penser à celle prise par la Russie, d’obliger les distributeurs de smartphones à préinstaller le magasin d’applications RuStore et l’application de chat Max.

D’autant que, dans son communiqué, le ministère indien explique que les fabricants et importateurs ne doivent pas seulement préinstaller Sanchar Saathi, ils doivent aussi veiller à ce qu’elle soit « facilement visible et accessible aux utilisateurs finaux lors de la première utilisation ou de la configuration de l’appareil et que ses fonctionnalités ne soient pas désactivées ou restreintes ».

Critiques et marche arrière du ministre

L’information a fait réagir dans le pays dirigé par Narendra Modi. « Ce serait comme vivre dans une dictature moderne », explique par exemple Apar Gupta, fondateur de l’ONG indienne Internet Freedom Foundation interrogé par The Wire.

Face aux critiques, le gouvernement semble faire quelques pas en arrière. Ainsi, The Wire rapporte que Jyotiraditya Scindia a assuré que « vous pouvez activer ou désactiver la surveillance des appels selon votre souhait. Si vous souhaitez la conserver dans votre téléphone, gardez-la. Si vous souhaitez la supprimer, faites-le ».

Dans une autre déclaration, le ministre affirme, toujours selon The Wire, « Si vous ne souhaitez pas utiliser Sanchar Saathi, vous pouvez le supprimer. Il s’agit d’une option facultative… Il s’agit de protéger les clients. Je tiens à dissiper tout malentendu… Il est de notre devoir de présenter cette application à tout le monde. C’est à l’utilisateur de décider s’il souhaite la conserver sur son appareil ou non… Elle peut être supprimée du téléphone portable comme n’importe quelle autre application ». Mais nos confrères indiens soulignent que ces déclarations sont en contradiction avec le communiqué de presse du ministère et avec les demandes envoyées aux fabricants.

Concernant les fabricants justement, Apple ne semble pas décidée à suivre la demande du gouvernement indien. C’est en tout cas ce que plusieurs sources internes ont assuré à Reuters. L’agence de presse explique que l’entreprise à la pomme va répondre à l’exécutif indien qu’elle ne suit nulle part dans le monde ce genre d’obligation, car cela soulève des problèmes liés à la confidentialité et à la sécurité pour iOS.

Rappelons qu’en Russie, Apple a suspendu ses ventes en 2022 suite à l’invasion de l’Ukraine et à l’embargo mis en place. Elle n’a donc pas à se conformer à la nouvelle loi obligeant la préinstallation de RuStore (Apple ne s’est néanmoins pas opposée à l’arrivée de ce magasin d’applications dans l’Apple Store local).

IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

2 décembre 2025 à 13:25
Culture vs numérique : the neverending war
IA et ayants droit : Rachida Dati envisage une loi pour encadrer le conflit

Poussée par les différentes organisations d’ayants droit de la culture comme de la presse, la ministre de la Culture Rachida Dati évoque l’idée d’une loi pour encadrer spécifiquement l’utilisation de tous types de contenus par les entreprises d’IA.

Après plusieurs réunions entre les entreprises d’IA et les organisations d’ayants droit, ces dernières sont ressorties déçues et l’ont fait savoir à la ministre de la Culture Rachida Dati. Allant dans leur sens, celle-ci propose maintenant de légiférer, notamment pour imposer un mode de rémunération.

Un cycle de réunions avait été lancé début juin par Rachida Dati et Clara Chappaz (alors ministre déléguée du Numérique) entre, d’un côté, des acteurs de l’IA comme Google, Mistral et OpenAI et de l’autre, quinze organisations d’ayants droit comme la Sacem, la SACD ou encore l’Alliance de la presse d’information générale (APIG) et le Syndicat de la presse indépendante d’information en ligne (Spiil).

Un dialogue peu productif

Mais, selon les Échos, aucune réelle discussion n’a réellement été enclenchée. « La belle idée était illusoire. Pour discuter, il faut être deux », déclarait Pierre Petillault, directeur général de l’Apig, à notre consœur des Echos, déplorant l’absence d’ouverture du côté des entreprises d’IA générative.

Le 18 novembre dernier, les quinze organisations d’ayants droit ont fait part à la ministre de la Culture de leur impatience dans une lettre obtenue par Contexte. « En dépit d’échanges parfois intéressants, ce processus n’a pas permis de dégager des solutions concrètes pour faciliter la négociation d’accords de licences », affirment-elles notamment.

Elles y demandaient à Rachida Dati des « solutions législatives fondées sur les recommandations du rapport du CSPLA [Conseil supérieur de la propriété littéraire et artistique] sur la rémunération des contenus culturels par les systèmes d’IA ». Commandé par son ministère, le rapport est le produit de la mission conduite par Alexandra Bensamoun et Joëlle Farchy, qui a rendu deux volets (une partie économique et une partie juridique) en juillet dernier.

Rachida Dati et des sénateurs de plusieurs partis sur la même longueur d’onde que les ayants droit

Rachida Dati a réagi exactement dans ce sens dans un communiqué de presse ce 28 novembre. Le ministère y juge que les accords qui existent sont « insuffisants pour assurer la juste rémunération des œuvres et contenus utilisés pour l’entraînement des modèles d’IA ». Il lui apparait « dès lors pleinement légitime que les pouvoirs publics envisagent des actions, y compris de nature législative comme celles évoquées dans le cadre des missions conduites au Conseil supérieur de la propriété littéraire et artistique ».

Le ministère explique même envisager la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ». En effet, la partie juridique du rapport du CSPLA [PDF] a proposé une solution pour « réintégrer les titulaires dans leurs droits en l’absence d’une transparence suffisante ». De fait, le rapport propose d’établir une « présomption d’utilisation ou d’exploitation » en se basant sur quelques indices (comme le fait que l’extrait d’un texte soit recraché par l’IA générative incriminée, par exemple).

Selon les Échos, une proposition de loi est aussi envisagée par les sénatrices Agnès Evren (Les Républicains), Laure Darcos (LIOT) et le sénateur Pierre Ouzoulias (PCF) pour un dépôt en décembre.

Reçu — 28 novembre 2025 Next - Articles gratuits

Alors que « portable en pause » rame au collège, Emmanuel Macron veut l’étendre au lycée

28 novembre 2025 à 15:52
Mode avion
Alors que « portable en pause » rame au collège, Emmanuel Macron veut l’étendre au lycée

Lors d’un entretien avec un panel de lecteurs du groupe de presse EBRA, Emmanuel Macron a affiché sa volonté que le dispositif « portable en pause » applicable actuellement au collège (mais peu mis en place jusqu’à présent) soit étendu au lycée. Pour cela, une loi devra être présentée et votée au Parlement.

En déplacement à Mirecourt près d’Épinal ce vendredi 28 novembre pour répondre aux lecteurs de Vosges Matin, Emmanuel Macron a répété sa volonté d’éloigner les téléphones portables des établissements scolaires en évoquant leur potentielle interdiction dans les lycées « à la rentrée prochaine ».

Empêché d’être le « maitre des horloges » au Parlement suite à la dissolution de l’Assemblée nationale en 2024, Emmanuel Macron effectue une tournée nationale organisée avec plusieurs rédactions de la presse quotidienne régionale. Le président de la République y aborde régulièrement le sujet du numérique. Ainsi, il avait déjà évoqué la possibilité qu’il quitte la plateforme X le 12 novembre dernier face aux lecteurs de la Dépêche du Midi. 15 jours après, il n’a pas encore franchi le pas.

Aujourd’hui, face aux lecteurs de Vosges Matin, Emmanuel Macron a affirmé : « On a sorti le portable du collège, maintenant dans tous les collèges à la rentrée dernière, on va sans doute l’élargir aux lycées à la rentrée prochaine avec le ministre. Il est en train de regarder ça », estimant que l’interdiction est la manière la plus efficace « si on considère qu’il y a un vrai risque ».

Un long chemin de croix pour l’interdiction du portable au collège

Concernant la sortie du portable au collège, ce n’est pas encore tout à fait le cas, contrairement à ce qu’affirme le Président. Comme nous le disions en 2017 déjà, l’article L511-5 du Code de l’éducation prévoit depuis 2010 que « dans les écoles maternelles, les écoles élémentaires et les collèges, l’utilisation durant toute activité d’enseignement et dans les lieux prévus par le règlement intérieur, par un élève, d’un téléphone mobile est interdite », mais son application n’est pas si simple. À l’époque, Jean-Michel Blanquer promettait de « faire respecter les règles et le droit ».

Mais en 2025, le dossier n’est pas encore résolu. En avril dernier, Élisabeth Borne a annoncé qu’elle souhaitait que la « pause numérique » – l’interdiction pour les élèves d’utiliser leur smartphone au sein de l’établissement – soit « généralisée à tous les collèges à la prochaine rentrée ». Mais, en septembre, selon le syndicat majoritaire des chefs d’établissement SNPDEN-UNSA cité par le Monde, seuls 9 % des collèges avaient mis en place le dispositif.

Début novembre, en réponse à une question sur le nombre de collèges appliquant le dispositif de la sénatrice Les Républicains Agnès Evren, le nouveau ministre de l’Éducation nationale, Édouard Geffray, répondait de manière évasive : « je ne peux que souscrire à l’idée de mettre le portable en pause et d’installer des casiers de stockage lorsque c’est possible, mais je rappelle que la première pause du portable est l’interdiction, qu’il nous revient de faire respecter. Je ne peux que me réjouir des cas où il est possible de conforter l’interdiction avec des installations spécifiques, mais je ne peux pas imposer aux départements d’acquérir des casiers. Plusieurs centaines d’établissements fonctionnent ainsi, avec des retours qui laissent apparaître une nette satisfaction ».

Une volonté présidentielle qui n’est pas encore inscrite dans la loi

Le portable n’est donc pas encore sorti des collèges, même si, selon France Info, Emmanuel Macron estime que l’interdiction dans les collèges « marche plutôt bien, parce que c’est une interdiction nationale, c’est assumé ».

Pour ce qui est des lycées, Édouard Geffray semble donc être « en train de regarder ça », selon le président de la République. Mais il faut qu’un texte législatif soit voté avant qu’il puisse être appliqué « à la rentrée prochaine ».

La députée Renaissance Laure Miller a déposé le mardi 18 novembre 2025 une proposition de loi « visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » qui propose, entre autres, d’ « étendre aux lycées l’interdiction de l’utilisation des téléphones portables, dans les mêmes conditions que dans les autres établissements scolaires ». Reste à ce que l’article en question ainsi que la loi soient votés par l’Assemblée nationale et le Sénat, et que les décrets soient promulgués avant la rentrée 2026.

Arnaques financières : les réseaux sociaux mis devant leurs responsabilités en Europe

28 novembre 2025 à 12:59
Complicité de scam
Arnaques financières : les réseaux sociaux mis devant leurs responsabilités en Europe

Le Conseil et le Parlement européen ont trouvé un accord sur de nouvelles règles à propos de la fraude en ligne et l’utilisation abusive des données. Notamment, les plateformes devront faire face à leurs responsabilités si elles n’ont pas supprimé des contenus frauduleux signalés qui ont atteint des victimes.

« Historique : Nous nous attaquons à l’industrie de la fraude numérique », a exulté le député européen du Danemark Morten Løkkegaard (Renew) sur Facebook. « Le Parlement et le Conseil ont conclu un accord visant à rendre le secteur des services de paiement de l’UE plus ouvert et plus concurrentiel, tout en le dotant de solides défenses contre la fraude et les violations de données », explique la députée européenne Place publique sur X.

Ce jeudi 27 novembre, le Conseil et le Parlement européen ont annoncé s’être mis d’accord à propos de deux textes sur la régulation des paiements en ligne (le Payment Services Regulation et la directive Payment Services Directive 3, PSD3), comme l’a repéré Politico. Il reste une dernière étape pour qu’il puisse entrer en vigueur : une adoption formelle par les deux institutions.

Renfort de la coopération entre prestataires de services de paiement

Le Conseil de l’Europe explique que « l’objectif de ces nouvelles règles est de mieux lutter contre la fraude aux paiements, d’améliorer la transparence des frais et de renforcer la protection des consommateurs dans le secteur des services de paiement ». L’idée est de mettre à jour la législation européenne face aux nombreuses tentatives de phishings auxquelles nous faisons face.

Ces textes renforcent, entre autres, les obligations des prestataires de services de paiement concernant les fraudes : obligation de partager entre eux les informations sur des cas repérés mais aussi de vérifier les numéros IBAN avant tout virement (et pas seulement sur les virements instantanés en euros comme actuellement). Ils seront aussi tenus responsables s’ils n’ont pas mis en place certains outils préventifs face à la fraude.

Une attention obligatoire sur les signalements de fraude

Mais ces textes donnent aussi une responsabilité à d’autres acteurs jusque-là laissés tranquilles sur le sujet. Ainsi les réseaux sociaux seront responsables envers les prestataires de services de paiement qui auront remboursé des clients victimes de fraude si celle-ci a été effectuée en passant par un message publié sur leur plateforme qui aurait été préalablement signalé.

Le Parlement européen explique aussi que les annonceurs de services financiers vont devoir démontrer aux très grandes plateformes en ligne (VLOPs) et moteurs de recherche (VLOSE) qu’ils sont « légalement autorisés (ou officiellement exemptés) dans le pays concerné à offrir ces services, ou qu’ils font de la publicité pour le compte d’une personne qui l’est ».

Rappelons que des documents internes à Meta ont récemment révélé que le groupe de Mark Zuckerberg prévoit de générer 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars, à partir d’arnaques et de publicités frauduleuses.

Les négociateurs européens s’appuient notamment sur le DSA et le DMA pour établir ces nouvelles règles.

« Ce cadre complexe sape les efforts de simplification et risque d’entrer en conflit avec l’interdiction de la surveillance générale prévue par le DSA, ignorant ainsi les nombreuses études qui avertissent que cela serait contre-productif. Au lieu de protéger les consommateurs, le résultat obtenu aujourd’hui crée un dangereux précédent et décharge de leur responsabilité ceux qui sont les mieux placés pour prévenir la fraude », a réagi Leonardo Veneziani, représentant du lobby du numérique états-unien CCIA (regroupant notamment Amazon, Google, Apple, Meta et Shopify).

Reçu — 27 novembre 2025 Next - Articles gratuits

☕️ Fuite de données concernant les utilisateurs de l’API d’OpenAI

27 novembre 2025 à 07:43

L’entreprise de Sam Altman vient de publier un texte expliquant que les données d’utilisateurs de son API via l’OpenAI Platform ont fuité.

Selon OpenAI, cette fuite concerne :

  • Le nom fourni pour le compte API ;
  • l’adresse e-mail associée au compte API ;
  • la localisation approximative basée sur le navigateur de l’utilisateur API (ville, état, pays) ;
  • le système d’exploitation et le navigateur utilisés pour accéder au compte API ;
  • les sites web référents ;
  • les identifiants d’organisation ou d’utilisateur associés au compte API.

L’entreprise pointe du doigt un de ses sous-traitants : Mixpanel. Celui-ci se serait aperçu le 9 novembre qu’un pirate aurait eu accès à une partie de ses systèmes et exporté un ensemble de données. Mixpanel a informé OpenAI qu’elle enquêtait sur cette fuite et a ensuite partagé le jeu de données concerné avec le créateur de ChatGPT le 25 novembre.

OpenAI explique qu’elle continue à travailler sur le sujet avec MixPanel et d’autres partenaires mais que Mixpanel ne fait d’ores et déjà plus partie de ses sous-traitants.

Dans sa communication, OpenAI affirme qu’ « aucune conversation, requête API, donnée d’utilisation API, mot de passe, identifiant, clé API, détail de paiement ou pièce d’identité officielle n’a été compromis ou divulgué ».

Elle ajoute qu’elle ne recommande donc pas de réinitialisation de mot de passe ou de rotation des clés en réponse à cet incident. L’entreprise incite par contre ses utilisateurs à activer l’authentification multifacteur en tant que bonne pratique.

OpenAI assure qu’elle va informer tous les utilisateurs et organisations concernés individuellement et qu’elle reste en contact avec Mixpanel afin de déterminer les mesures à prendre.

Reçu — 26 novembre 2025 Next - Articles gratuits

☕️ HP licencie 10 % de ses salariés, Apple quelques dizaines dans son service commercial

26 novembre 2025 à 11:05

De 4 000 à 6 000 postes seront supprimés chez HP d’ici la fin de l’année fiscale 2028, annonce l’entreprise (pdf).

HP affirme mettre en place son plan de restructuration en parallèle d’une adoption massive de l’IA en interne. « Nous pensons sincèrement qu’il s’agit d’une occasion unique à ne pas manquer pour poursuivre la transformation de l’entreprise et rester compétitifs pendant les 10 ou 20 prochaines années », affirme Enrique Lores, le CEO de HP, au Wall Street Journal.

Le journal économique états-unien affirme que l’entreprise prévoit également d’augmenter le prix de ses appareils – tout en réduisant la quantité de mémoire – et de travailler avec des fournisseurs moins chers.

Comme l’indique l’AFP, la bourse de New York a plutôt mal réagi à cette annonce conjuguée à la publication d’objectifs inférieurs aux attentes, avec une baisse des échanges post-clôture de 6 %.

De son côté, Apple prévoit quelques dizaines de licenciements dans son service commercial, notamment pour la vente des produits aux entreprises, aux établissements scolaires et aux administrations publiques, ce qui constitue un licenciement rare pour le fabricant de l’iPhone, explique Bloomberg.

Reçu — 25 novembre 2025 Next - Articles gratuits

Mission Genesis : Trump confie la recherche américaine à l’IA

25 novembre 2025 à 13:25
What could go wrong?
Mission Genesis : Trump confie la recherche américaine à l’IA

Après avoir attaqué le financement des agences scientifiques états-uniennes avec le DOGE, Donald Trump annonce le lancement d’une « Mission Genesis » pour « utiliser l’intelligence artificielle (IA) pour transformer la manière dont la recherche scientifique est menée et accélérer le rythme des découvertes scientifiques ».

Donald Trump a signé ce lundi 24 novembre un décret créant une mission nommée Genesis visant à pousser les laboratoires scientifiques états-uniens à utiliser massivement l’IA. La Maison-Blanche affirme que cette mission doit « accroître considérablement la productivité et l’impact de la recherche et développement fédérale au cours de la prochaine décennie ».

Le dirigeant états-unien, qui a massivement désorganisé les agences scientifiques américaines avec le DOGE, les a poussées à supprimer des données scientifiques et à baisser drastiquement leur budget, prétend maintenant « accélérer le rythme des découvertes » en investissant dans la « science basée sur l’IA ».

Encore une comparaison au projet Manhattan

Dans son décret, Donald Trump compare l’ambition de cette Mission Genesis à celle du Projet Manhattan, considérant que nous sommes « à un moment charnière » où « les défis auxquels nous sommes confrontés » exigent un effort national historique pour les États-Unis. Rappelons qu’il y a un an, Donald Trump comparait déjà un autre projet au fameux plan états-unien dont l’objectif était de produire une bombe atomique au cours de la Seconde Guerre mondiale : c’était le DOGE, qui vient d’être officiellement démantelé.

Le texte du décret présente cette mission comme « un effort national coordonné et dédié visant à ouvrir une nouvelle ère d’innovation et de découvertes accélérées par l’IA, capables de résoudre les problèmes les plus complexes de ce siècle ». Si cette comparaison et l’emphase du texte suggèrent un investissement colossal de son pays dans l’IA utilisée dans la recherche, le dirigeant états-unien n’indique aucun chiffre concernant le budget qu’il souhaiterait investir dans cette mission.

Il ajoute que la Mission Genesis « permettra de créer une plateforme d’IA intégrée afin d’exploiter les jeux de données scientifiques fédéraux — qui constituent la plus grande collection au monde de ce type de données développée grâce à des décennies d’investissements fédéraux — pour entrainer des modèles scientifiques de fondation et créer des agents d’IA afin de tester de nouvelles hypothèses, d’automatiser les flux de travail de recherche et d’accélérer les avancées scientifiques ».

Le département de l’Énergie des États-Unis aux manettes

Donald Trump confie la responsabilité de la mission au directeur de son Bureau de la politique scientifique et technologique, Michael Kratsios. Le secrétaire d’État à l’Énergie, Chris Wright, doit en assurer la maîtrise d’œuvre, le décret précisant qu’il doit « mettre en place et exploiter » ce que le texte appelle « la plateforme américaine pour la science et la sécurité ».

NBC souligne que cette annonce suit celle faite fin octobre par le département de l’Énergie états-unien de la création de deux supercalculateurs (Discovery et Lux) pour son laboratoire Oak Ridge en collaboration avec AMD et HPE (Hewlett Packard Enterprise). « En collaboration avec AMD et HPE, nous mettons en ligne de nouvelles capacités plus rapidement que jamais, transformant l’innovation partagée en force nationale et prouvant que l’Amérique est en tête lorsque les partenaires privés et publics travaillent ensemble », affirmait Chris Wright à cette occasion.

Coïncidence avec l’insistance de l’industrie de l’IA à comparer ses modèles au niveau des chercheurs

Le décret demande au secrétaire d’État à l’Énergie d’identifier d’ici deux mois une liste d’ « au moins 20 challenges scientifiques et technologiques d’importance nationale » qui relèveraient de la mission et qui concerneraient notamment « la fabrication de pointe, les biotechnologies, les matériaux « critiques », la fission et la fusion nucléaire, l’information quantique et la microélectronique (entre autres les semi-conducteurs) ».

Cette « Mission Genesis » remet ainsi en perspective la course des entreprises d’IA générative pour annoncer que leurs modèles sont capables d’ « accélérer la science ». Récemment, Anthropic a ainsi annoncé « Claude for Life Sciences » mais OpenAI a été jusqu’à transformer son opération de marketing en pseudo article scientifique. Cet été, Elon Musk avait affirmé que Grok 4 était « plus intelligent que presque tous les docteurs, dans toutes les disciplines, simultanément ».

Meta aurait enterré des recherches internes sur les méfaits des réseaux sociaux

25 novembre 2025 à 07:29
Chut
Meta aurait enterré des recherches internes sur les méfaits des réseaux sociaux

Dans un procès qui oppose Meta à plusieurs districts scolaires états-uniens, l’entreprise de Mark Zuckerberg voit remonter l’évocation de recherches internes non rendues publiques montrant que les personnes qui ont cessé d’utiliser Facebook sont devenues moins déprimées et moins anxieuses.

Depuis 2022, Meta fait face à une plainte de plusieurs districts scolaires états-uniens concernant l’addiction des adolescents aux réseaux sociaux et qui accusent l’entreprise de proposer « des produits défectueux ».

Selon un des documents produits lors de ce procès, Meta aurait arrêté des travaux de recherches internes montrant des preuves de causalité entre l’utilisation du réseau social et la santé mentale de ses utilisateurs, explique Reuters.

Un projet abandonné après des signes problématiques sur l’utilisation des réseaux

Fin 2019, l’entreprise a mis en place, selon ce document [PDF], ce qu’elle a nommé le « Projet Mercury » : un travail en collaboration avec l’entreprise de sondage Nielsen sur les effets liés au fait de « désactiver » Facebook. « Les personnes qui ont cessé d’utiliser Facebook pendant une semaine ont déclaré ressentir moins de dépression, d’anxiété, de solitude et de comparaison sociale » montrent des tests pilotes de cette étude.

« Mais au lieu d’aller plus loin ou de sonner l’alarme », affirment les avocats des districts scolaires, « Meta a suspendu le projet, affirmant que les commentaires des participants étaient biaisés par « le résultat du discours médiatique existant autour de l’entreprise » ».

Des craintes internes d’une image proche de celle de l’industrie du tabac si le travail était enterré

En interne, cet arrêt a été critiqué par certains : « L’étude Nielsen montre effectivement un impact causal sur la comparaison sociale.☹ », a écrit un chercheur de Meta anonyme. Un autre employé s’inquiétait d’une éventuelle fuite de l’enterrement de ce projet : « Si les résultats sont mauvais et que nous ne les publions pas, mais qu’ils fuitent, cela ressemblera-t-il aux fabricants de tabac qui menaient des recherches, savaient que les cigarettes étaient nocives, mais gardaient cette information pour eux ? ». Et ils accusent Meta de ne pas avoir publié ces résultats : « À la place, Meta a menti au Congrès sur ce qu’elle savait », affirment-ils.

« Nous sommes en total désaccord avec ces allégations, qui s’appuient sur des citations choisies de manière sélective et des opinions erronées dans le but de présenter une image délibérément trompeuse », affirme le porte-parole de Meta, Andy Stone comme l’indique CNBC. Pour lui, le projet de l’étude était biaisé : « Il constatait que les personnes qui pensaient que l’utilisation de Facebook leur était néfaste se sentaient mieux lorsqu’elles cessaient de l’utiliser », affirme-t-il sur Bluesky, ajoutant que ça ne serait que la confirmation d’autres études démontrant le même effet. « Cela semble logique intuitivement, mais cela ne montre rien concernant l’effet réel de l’utilisation de la plateforme », défend-il.

Les documents sur lesquels s’appuient les avocats des districts scolaires ne sont pas publics. Reuters explique que l’entreprise a demandé à ce qu’ils soient enlevés du dossier, considérant que leur nature était trop générale et ne concernait pas ce que les plaignants cherchent à prouver.

Reçu — 24 novembre 2025 Next - Articles gratuits

☕️ Le DOGE n’existe officiellement plus

24 novembre 2025 à 09:10

Le département de « l’efficacité gouvernementale » confié pendant un temps à Elon Musk a finalement été lui-même démantelé.

Scott Kupor, le responsable de l’Office of Personnel Management (agence états-unienne de la gestion de la fonction publique), a affirmé à Reuters que le DOGE n’est plus une « entité centralisée » comme elle avait été pensée et annoncée il y a un an par Donald Trump.

Confié à Elon Musk, ce département avait officiellement pour mission de restructurer l’ensemble des administrations publiques américaines. Mais le milliardaire a choisi de quitter sa direction fin mai. S’il avait fait le choix inverse, il aurait dû se plier aux obligations de transparence et de contrôle du Congrès des États-Unis, notamment concernant les conflits d’intérêt avec ses diverses entreprises X, SpaceX et Tesla dont certaines bénéficient de la commande publique.

Selon l’agence de presse américaine, c’est maintenant l’Office of Personnel Management qui a repris une bonne partie des prérogatives qu’avait acquises temporairement le DOGE.

Reuters explique que deux responsables du DOGE, Joe Gebbia et Edward Coristine (du haut de ses 19 ans, ce dernier est surnommé « Big Balls »), font maintenant partie du « National Design Studio », une agence spécifiquement créée en août dernier par Donald Trump pour embellir les sites web du gouvernement.

Pendant cinq mois, le DOGE a pu s’immiscer dans les données de multiples agences états-uniennes comme le Trésor ou Medicare/Medicaid et s’emparer de certains systèmes informatiques. Mais Politico explique qu’après le départ d’Elon Musk, les ingénieurs recrutés par ce département ont perdu leur « protecteur ».

En novembre dernier, Donald Trump annonçait la création de ce département en lui donnant une échéance : « Leur travail prendra fin au plus tard le 4 juillet 2026. Un Gouvernement resserré, avec plus d’efficacité et moins de bureaucratie, constituera un parfait cadeau pour l’Amérique à l’occasion du 250e anniversaire de la Déclaration d’indépendance ». Finalement, la mission a fini huit mois plus tôt.

Reçu — 21 novembre 2025 Next - Articles gratuits

Vérification d’âge : Pornhub appelle Apple, Google et Microsoft à l’intégrer aux appareils

21 novembre 2025 à 11:12
iD@OS
Vérification d’âge : Pornhub appelle Apple, Google et Microsoft à l’intégrer aux appareils

Alors que de plus en plus de pays veulent imposer des systèmes de vérification d’âge pour filtrer l’accès à certains contenus, l’éditeur du site Pornhub plaide dans une lettre envoyée à Apple, Google et Microsoft pour une intégration dans les systèmes d’exploitation.

En France, aux États-Unis, en Europe ou ailleurs, différentes autorités affichent leur volonté d’intensifier la lutte contre l’accès des mineurs aux sites porno. Aylo, l’entreprise derrière les sites Pornhub, Redtube et Youporn, plaide depuis quelque temps pour que les éditeurs de sites n’en soient pas responsables.

Dans une lettre envoyée récemment à Apple, Google et Microsoft, mais qui n’a pas été rendue publique, le responsable juridique d’Aylo les exhorte d’intégrer une fonctionnalité de vérification d’âge dans leurs systèmes d’exploitation et leurs magasins d’applications.

Une intensification de la pression législative dans le monde

Cet été, en France, l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique) a serré les boulons en s’appuyant sur la loi SREN pour imposer aux sites porno de mettre en place des systèmes de vérification d’âge. Aylo a pris la décision de suspendre leur accès en France pour protester. Si la décision a été contestée en justice, le Conseil d’État a pour l’instant rétabli l’obligation de contrôle de l’âge. D’autres sites ont depuis été visés.

Cette lutte a tendance à s’étendre à d’autres contenus. Par exemple, au Royaume-Uni, l’Online Safety Act prévoit un système de catégorisation des sites qui inquiète la fondation Wikimedia.

Mais l’autre problème, comme Next a pu le constater, est que les systèmes de vérification d’âge valident parfois n’importe quoi.

Aylo veut rejeter la responsabilité du contrôle sur les systèmes d’exploitation

Pour y remédier, l’UE a monté un projet d’application de vérification d’âge. De son côté, Aylo plaide plutôt pour une intégration directement sur les appareils des utilisateurs, via les systèmes d’exploitation et les magasins d’applications. Dès juin, lorsque l’Arcom a décidé de sévir, l’éditeur de site porno présentait la vérification d’âge au niveau de l’appareil comme solution simple et ultime.

Dans un communiqué maintenant supprimé de son site mais encore accessible sur Internet Archive, l’entreprise affirmait que « pour rendre l’Internet plus sûr pour tout le monde, chaque téléphone, tablette ou ordinateur devrait commencer par être un appareil sécurisé pour les enfants ». Elle ajoutait que « seuls les adultes identifiés devraient être autorisés à déverrouiller l’accès à des contenus inappropriés pour leur âge. C’est le principe de base de la vérification de l’âge à partir de l’appareil, que nous considérons comme l’option la plus sûre et la plus sécurisée. La technologie permettant d’y parvenir existe aujourd’hui ».

L’entreprise a intensifié sa communication sur le sujet cette semaine en envoyant donc une lettre que Wired a pu se procurer pour demander à Apple, Google et Microsoft de l’implémenter. « Forts de notre expérience concrète des lois existantes en matière de vérification de l’âge, nous soutenons fermement l’initiative visant à protéger les mineurs en ligne », y affirme Anthony Penhale, le responsable juridique d’Aylo, « cependant, nous avons constaté que les approches de vérification de l’âge basées sur les sites sont fondamentalement défaillantes et contre-productives ».

L’entreprise propose que les systèmes d’exploitation intègrent un système de ce genre qui ensuite partagerait les informations sur l’âge de l’utilisateur via une API aux sites et aux applications. Aux États-Unis, 25 États ont voté des lois sur la vérification d’âge. Comme le remarque Wired, toutes sont différentes.

Au Texas, dans l’Utah et en Louisiane, par exemple, elles imposent (avec une mise en application courant 2026) la vérification de l’âge des utilisateurs à la création des comptes et avant de les laisser installer des applications depuis des boutiques. Apple et Google ont réagi en expliquant mettre en place, justement, des API qui signaleront aux applications y faisant appel que la personne est majeure. Apple soulignait cependant que la législation texane portait « atteinte à la vie privée des utilisateurs en exigeant la collecte d’informations sensibles et personnelles pour télécharger une application, même si l’utilisateur souhaite simplement consulter la météo ou les résultats sportifs ».

Reçu — 20 novembre 2025 Next - Articles gratuits

La Cour des comptes pousse l’État à continuer ses investissements dans l’IA

20 novembre 2025 à 14:41
IA des sous pour l'IA
La Cour des comptes pousse l’État à continuer ses investissements dans l’IA

Dans un rapport, la Cour des comptes analyse la stratégie nationale pour l’intelligence artificielle en place depuis 2018. Elle incite l’État français à ne pas « baisser la garde » et au contraire à amplifier sa politique concernant la recherche. Elle l’exhorte aussi à « renforcer les capacités de calcul » avec des partenariats public-privé d’ampleur et amplifier les transferts vers l’industrie.

Tout en reconnaissant que « la prise de risque [en matière d’investissement] est élevée, la rentabilité des investissements inégale, de même que le rapport entre la valorisation de certaines entreprises de l’IA sur le marché et les revenus générés ou espérés, faisant craindre des effets de bulle qui pourraient conduire à des ajustements d’ampleur, y compris en Europe, dans les prochains mois », la Cour des comptes incite l’État à amplifier la stratégie nationale pour l’IA (SNIA).

La juridiction administrative a rendu son rapport [PDF] mercredi 19 novembre sur cette stratégie. Celui-ci analyse les deux premières phases (2018 - 2022 et 2022 - 2025).

Pour la troisième phase (2025 - 2030), elle affirme que pour « réussir le changement d’échelle qu’exige la révolution de l’intelligence artificielle », l’État doit :

  • « renforcer le pilotage interministériel de la politique publique de l’IA, avec en particulier la constitution d’un véritable secrétariat général à l’IA rattaché au Premier ministre ;
  • mieux intégrer les enjeux de soutenabilité des finances publiques et d’efficacité de la politique de l’IA ;
  • procéder à une évaluation approfondie des résultats des précédentes phases de la stratégie nationale et s’inspirer des meilleures pratiques à l’étranger ;
  • mieux s’articuler avec l’échelon européen ;
  • mieux mobiliser les territoires ;
  • redéfinir le partage des rôles avec le secteur privé ».

Elle incite l’État à ne pas « baisser la garde » et à « renforcer les capacités de calcul » avec des partenariats public-privé d’ampleur et amplifier les transferts vers l’industrie.

Même si la Cour des comptes considère que cette stratégie a « remporté de premiers succès », elle estime que ses deux premières phases « présentent des angles morts dans plusieurs domaines essentiels […] notamment dans des chantiers qui demandent d’impliquer un cercle large d’acteurs et de faire le lien avec d’autres politiques publiques ».

Une première phase trop axée sur la recherche pour la Cour

Dans la première phase de cette stratégie (2018 - 2022), la Cour souligne que l’État a investi 1,3 milliard d’euros (contre 1,5 milliard programmés) en ne couvrant qu’une partie des enjeux tout en la faisant reposer « sur une gouvernance complexe et un suivi budgétaire lacunaire ».

Elle reproche à l’exécutif de ne s’être concentré, dans cette phase, que sur la partie recherche, en oubliant la formation supérieure en IA, l’ouverture des données, l’accompagnement des secteurs économiques prioritaires fortement impactés par l’IA, et l’encadrement éthique de l’IA qui étaient tout autant cité dans le rapport de la mission confiée au mathématicien Cédric Villani rendu en mars 2018.

Elle reconnait « les succès du volet « recherche en IA », appréciés avec un recul supplémentaire de deux années ». Néanmoins, elle pointe « le recours par l’État à une succession d’appels à projets ou à manifestation d’intérêt, pour des financements ponctuels avec un horizon de vie limité », ce qui « présente le risque d’accroître la fragmentation au sein de la recherche, au détriment de la cohérence d’ensemble, de la création de masses critiques et de stratégies plus structurelles permettant la coordination, la complémentarité et la responsabilisation des acteurs dans la durée ». Elle regrette aussi que le volet « formation supérieure » n’ait pas été mis en œuvre.

« Dans les autres domaines couverts par la SNIA – la défense et la sécurité, la transformation de l’action publique et la diffusion de l’intelligence artificielle dans l’économie – les avancées ont été moins nettes », déplore-t-elle.

Pas assez de dépenses pour soutenir la demande des entreprises dans la seconde phase

Pour la deuxième phase, « au total, l’État aura programmé 1,1 Md€ sur la période 2023 - 2025, soit un niveau inférieur d’un tiers à ce qui avait été initialement annoncé, et la lenteur du démarrage de la plupart des dispositifs s’est traduite par un faible niveau de consommation des crédits (35 % au 30 juin 2025) », assène la Cour.

Mais elle souligne que « les premiers résultats de cette deuxième phase commencent à se dessiner dans plusieurs directions. Bien qu’il soit encore tôt pour en apprécier pleinement les effets, les initiatives prises pour renforcer la structuration et l’excellence de la recherche et de la formation supérieure en IA produisent de premiers résultats et la place de la France sur ce volet progresse ». Elle ajoute que les « efforts sur les infrastructures de calcul se sont poursuivis ».

La Cour reproche à l’exécutif d’avoir « très peu utilisé le levier de la commande publique pour favoriser l’adoption de l’IA dans la sphère publique ». Elle vise « en particulier » la Dinum (auditée en 2024) qui a, selon elle, « privilégié les développements internes avec le risque que les solutions proposées ne soient pas toujours performantes comparativement à l’offre disponible sur le marché, notamment chez les éditeurs logiciels français ».

Elle pousse aussi l’exécutif à dépenser plus sur le sujet de l’IA. « Plusieurs domaines non moins essentiels ont été laissés de côté », estime-t-elle. « L’enjeu de la massification et de l’accompagnement de la diffusion de l’intelligence artificielle au-delà du cercle des spécialistes – entreprises, administrations publiques, étudiants, citoyens – a jusqu’ici trop peu retenu l’attention, alors qu’il était au cœur des ambitions affichées par cette phase de la SNIA et que les années 2023 - 2025 étaient critiques en la matière », précise l’institution. « Ainsi, la priorité que constitue le soutien à la demande des entreprises en solutions d’IA n’a bénéficié que de dispositifs très modestes, et l’accélération et la massification escomptées de la diffusion de l’intelligence artificielle dans l’économie n’a pas eu lieu », ajoute-t-elle encore.

☕️ La justice étend son enquête sur X après des propos négationnistes générés par Grok

20 novembre 2025 à 08:25

Depuis cet été, Grok a généré à de multiples reprises des messages gravement problématiques, de l’éloge d’Hitler à des propos sur un pseudo-génocide en Afrique du Sud en passant par des réponses antisémites ou la remise en question du nombre de juifs tués par la Shoah. Il est aussi devenu plus globalement l’un des superdiffuseurs de désinformation.

Mais, alors que xA aI annoncé la sortie de Grok 4.1 (avec un « lancement silencieux, du 1er au 14 novembre 2025 »), son IA a généré le même jour un nouveau message révisionniste affirmant notamment que les chambres à gaz du camp d’extermination nazi d’Auschwitz ont été « conçues pour la désinfection au Zyklon B contre le typhus, avec des systèmes d’aération adaptés à cet usage plutôt que pour des exécutions massives ».

Ce mercredi 19 novembre, la Ligue des droits de l’homme a annoncé porter plainte à ce sujet et le député Renaissance Éric Bothorel a expliqué avoir fait un signalement « sur la base de l’article 40 du code de procédure pénale auprès de Madame La Procureure » suivi par les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé.

La #LDH porte plainte contre la publication de #Grok, l’intelligence artificielle du réseau social X, pour contestation de crimes contre l’humanité.

[image or embed]

— LDH France (@ldh.fr) 19 novembre 2025 à 14:35

Le même jour, le parquet de Paris a réagi, expliquant à l’AFP avoir versé ces « propos négationnistes (…) à l’enquête en cours diligentée par la section de lutte contre la cybercriminalité ». Le fonctionnement de l’IA Grok « sera analysé dans ce cadre ». X est visée depuis juillet par une enquête du parquet pour ingérence étrangère.

Le message généré par Grok a depuis été supprimé et l’IA d’Elon Musk publie aussi des messages en sens inverse.

Reçu — 19 novembre 2025 Next - Articles gratuits

Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

19 novembre 2025 à 16:30
Cumulonimbus
Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

La Commission a annoncé avoir ouvert plusieurs enquêtes sur le marché du cloud en Europe pour déterminer si Amazon et Microsoft doivent être désignées comme contrôleurs d’accès sur le cloud et ainsi être soumises à des règles plus strictes du DMA.

Alors qu’Emmanuel Macron et le chancelier allemand Friedrich Merz organisaient un sommet sur la souveraineté numérique européenne à Berlin, la Commission européenne a annoncé l’ouverture d’enquêtes sur le marché du cloud computing en Europe. Elle veut notamment vérifier que le DMA est bien appliqué sur ce marché et envisage de modifier le statut d’AWS et d’Azure en leur attribuant l’étiquette de « contrôleurs d’accès » (ou gatekeepers), ce qui leur ajouterait des obligations légales permettant de simplifier la concurrence pour les autres acteurs.

« Soyons clairs, l’Europe ne veut pas être le client des grands entrepreneurs ou des grandes solutions proposées, que ce soit par les États-Unis ou par la Chine. Nous voulons clairement concevoir nos propres solutions », a déclaré Emmanuel Macron à Berlin, ajoutant qu’il s’agit « simplement d’un refus d’être un vassal ». Le message envoyé en parallèle par la Commission concernant le cloud se veut dans le même sens.

Lobbying des deux côtés de l’atlantique

Il correspond à ce qu’avaient demandé plusieurs lobbys européens du milieu vendredi dernier. Dans une « déclaration commune », le Cigref et ses homologues néerlandais, belges et allemands appelaient « la Commission européenne et les autorités nationales à faire preuve d’une vigilance accrue et à mettre en œuvre rigoureusement la loi sur les marchés numériques (DMA) », en ajoutant que « les grands fournisseurs mondiaux de technologies doivent être désignés comme gardiens lorsque leur position sur le marché leur permet d’imposer des conditions commerciales déloyales, de limiter les choix industriels de leurs clients et de restreindre la libre concurrence ».

De son côté, le lobby états-unien Business Software Alliance, dont font partie AWS et Microsoft, implorait lundi l’Europe de « laisser la porte ouverte ». « À l’heure où la souveraineté est devenue l’un des thèmes politiques les plus controversés de l’UE », affirmait BSA, le lobby proposait des alternatives « aux mesures de localisation restrictives et aux stratégies « exclusivement européennes » ».

La Commission semble donc pencher dans le sens des lobbys européens en ouvrant, comme elle l’indique dans un communiqué, deux enquêtes de marché pour évaluer si « Amazon et Microsoft devraient être désignés comme contrôleurs d’accès pour leurs services de cloud computing, Amazon Web Services et Microsoft Azure, au titre du DMA, c’est-à-dire qu’ils agissent comme des passerelles importantes entre les entreprises et les consommateurs, même s’ils ne remplissent pas les critères du DMA en matière de taille, de nombre d’utilisateurs et de position sur le marché ». Elle y ajoute une troisième enquête pour estimer « si le DMA peut lutter efficacement contre les pratiques susceptibles de limiter la compétitivité et l’équité dans le secteur du cloud computing dans l’UE ».

Des obligations nouvelles comme une interopérabilité plus importante

La Commission explique que « les analyses des marchés du cloud menées ces dernières années semblent indiquer que les services de cloud computing Microsoft Azure et Amazon Web Services occupent des positions très fortes par rapport aux entreprises et aux consommateurs ». Elle ajoute qu’elle évaluera « si certaines caractéristiques du secteur du cloud computing sont susceptibles de renforcer encore la position de Microsoft Azure et d’Amazon Web Services ».

Comme nous l’indiquions dans notre article détaillé lors de l’entrée en application du DMA, les obligations que devront respecter AWS et Azure en cas de désignation seront multiples. Notamment, le texte prévoit une obligation d’interopérabilité, « avec les mêmes caractéristiques matérielles et logicielles », ainsi que la portabilité des données. Ils ne pourraient non plus inscrire d’office l’utilisateur d’un service à un autre fourni par le même contrôleur d’accès, ni utiliser les données fournies par les entreprises qui utilisent le service de plateforme pour favoriser les propres services du contrôleur d’accès.

La Commission ajoute d’ailleurs comme exemple de sujets que les enquêtes devront aborder « les obstacles à l’interopérabilité entre le cloud computing, l’accès limité ou conditionné des entreprises utilisatrices aux données, les services de vente liée et de groupage et les clauses contractuelles potentiellement déséquilibrées ».

« Les services d’informatique en nuage sont essentiels pour la compétitivité et la résilience de l’Europe. Nous voulons que ce secteur stratégique se développe à des conditions équitables, ouvertes et concurrentielles », affirme Teresa Ribera, vice-présidente exécutive chargée d’une transition propre, juste et compétitive. « C’est pourquoi nous ouvrons aujourd’hui des enquêtes pour déterminer si les principaux services de cloud computing d’Amazon et de Microsoft, Amazon Web Services et Microsoft Azure, devraient être soumis aux obligations du règlement sur les marchés numériques (DMA) ». Elle ajoute que la Commission pourrait aussi faire évoluer ce texte pour « que l’Europe puisse suivre le rythme de l’évolution rapide des pratiques » dans ce secteur.

Alors que Microsoft a déclaré à Reuters être prête à contribuer au travail d’enquête de la Commission, AWS affirmait que « désigner les fournisseurs de services cloud comme gatekeepers ne vaut pas la peine de prendre le risque d’étouffer l’innovation ou d’augmenter les coûts pour les entreprises européennes ».

❌