Vue lecture

OpenAI lance ChatGPT Santé s’appuyant sur de multiples données fournies par l’utilisateur

Quoi de neuf docGPT ?
OpenAI lance ChatGPT Santé s’appuyant sur de multiples données fournies par l’utilisateur

Tout en affirmant qu’il « n’a pas vocation à établir un diagnostic ni à proposer un traitement », OpenAI lance un chatbot spécialisé dans la santé qui s’appuiera sur les données personnelles de santé que les utilisateurs voudront bien lui partager, jusqu’à prévoir l’accès à leur dossier médical.

Affirmant que « la santé est déjà l’un des usages les plus courants de ChatGPT, avec des centaines de millions de personnes qui posent chaque semaine des questions liées à la santé et au bien-être », OpenAI annonce la sortie aux États-Unis d’un chatbot spécialisé sur les questions de santé et séparé de son principal service.

L’entreprise pousse ses utilisateurs à importer une bonne partie de leurs données de santé pour que son chatbot leur fasse des réponses personnalisées : données d’Apple Health, de MyFitnessPal, de Weight Watchers ou de AllTrails, de Peloton ou Instacart par exemple.

Et pour les habitants des États-Unis, le chatbot peut même aller chercher dans le dossier médical électronique (EHR). Et « Ce n’est qu’un début », affirme l’entreprise, qui ajoute qu’elle continuera « d’élargir les sources que vous pouvez connecter ainsi que les analyses prises en charge par ChatGPT Santé, afin que ChatGPT vous aide à vous sentir mieux informé et préparé pour gérer votre santé ».

Annonce faite le lendemain de l’assouplissement de la régulation par la FDA

Cette annonce arrive le lendemain de l’intervention de Marty Makary, le directeur de la FDA, au CES pour rassurer le milieu de la tech spécialisée en santé en affirmant qu’il assouplissait la régulation sur les appareils de santé numériques et qu’il n’allait surtout pas mettre le nez dans les affaires des entreprises de l’IA grand public : « Si quelque chose se contente de fournir des informations comme ChatGPT ou Google, nous ne pouvons pas rivaliser avec ce géant. Nous n’allons pas intervenir et dire : « il y a un résultat qui est inexact, nous devons donc fermer ce service » ».


Il reste 72% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Les États-Unis se retirent de 66 organisations dont le GIEC et la Freedom Online Coalition

Par un mémorandum présidentiel signé par Donald Trump, les États-Unis se retirent d’une liste de 66 organisations, collaborations et traités internationaux dont le GIEC, la Freedom Online Coalition, le Global Counterterrorism Forum ou encore le Global Forum on Cyber Expertise.

Dans cette liste, 31 organisations appartiennent à l’ONU dont, par exemple, l’Université des Nations unies, le Centre du commerce international, l’International Energy Forum ou encore l’Institut des Nations unies pour la formation et la recherche.

Hors ONU, y figurent aussi la Commission for Environmental Cooperation, l’European Centre of Excellence for Countering Hybrid Threats, l’Intergovernmental Forum on Mining, Minerals, Metals, and Sustainable Development ou l’Intergovernmental Panel on Climate Change.

Le mémorandum précise que « j’ai déterminé qu’il était contraire aux intérêts des États-Unis de rester membre, de participer ou d’apporter un soutien » à ces organisations.

  •  

☕️ Les États-Unis se retirent de 66 organisations dont le GIEC et la Freedom Online Coalition

Par un mémorandum présidentiel signé par Donald Trump, les États-Unis se retirent d’une liste de 66 organisations, collaborations et traités internationaux dont le GIEC, la Freedom Online Coalition, le Global Counterterrorism Forum ou encore le Global Forum on Cyber Expertise.

Dans cette liste, 31 organisations appartiennent à l’ONU dont, par exemple, l’Université des Nations unies, le Centre du commerce international, l’International Energy Forum ou encore l’Institut des Nations unies pour la formation et la recherche.

Hors ONU, y figurent aussi la Commission for Environmental Cooperation, l’European Centre of Excellence for Countering Hybrid Threats, l’Intergovernmental Forum on Mining, Minerals, Metals, and Sustainable Development ou l’Intergovernmental Panel on Climate Change.

Le mémorandum précise que « j’ai déterminé qu’il était contraire aux intérêts des États-Unis de rester membre, de participer ou d’apporter un soutien » à ces organisations.

  •  

La FDA réduit sa surveillance des dispositifs de santé portables ou s’appuyant sur l’IA

Porte ouverte
La FDA réduit sa surveillance des dispositifs de santé portables ou s’appuyant sur l’IA

Le directeur de la FDA, Marty Makary, a annoncé au CES assouplir la régulation sur les appareils de santé numériques, notamment concernant les logiciels d’aide à la décision clinique (dont ceux utilisant l’IA générative) et les produits portables pour surveiller les problèmes de santé, tant que ceux-ci ne s’affichent pas comme des dispositifs médicaux.

« Une nouvelle ère pour la santé numérique », c’est le titre de la conférence qu’a donnée Marty Makary, le directeur de la FDA (Food and Drug Administration, l’agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires), ce mardi à l’occasion du CES. Cette nouvelle ère ressemble fortement à celle de l’IA voulue par Donald Trump lors de son second mandat : celle d’un assouplissement de la régulation de ces industries. Ainsi Marty Makary a affirmé vouloir favoriser un environnement propice aux investisseurs et faire évoluer la réglementation de la FDA « à la vitesse de la Silicon Valley », comme l’explique le site d’informations médicales Statnews.

L’agence a publié, de fait, une nouvelle interprétation [PDF] des critères à prendre en compte pour savoir si un logiciel d’aide à la décision clinique rentre ou non dans son périmètre de régulation.

« Laissons le marché décider »

Sur Fox Business, Marty Makary a insisté sur les assouplissements concernant les appareils considérés comme « fournissant des informations non médicales ». « Nous voulons faire savoir aux entreprises, à l’aide de directives très claires, que si leur appareil ou leur logiciel se contente de fournir des informations, elles peuvent le faire sans être soumises à la réglementation de la FDA », affirme-t-il.

« S’ils ne prétendent pas être de qualité médicale, laissons le marché décider. Laissons les médecins choisir parmi un marché concurrentiel ceux qu’ils recommandent à leurs patients. Bon nombre de ces dispositifs médicaux basés sur l’IA et ces technologies logicielles s’améliorent avec le temps. Il n’est donc pas vraiment approprié pour nous, à la FDA, d’utiliser un ancien modèle consistant simplement à apposer un cachet sur quelque chose, dans un marché en pleine évolution », ajoute le responsable de l’agence de régulation.

Marty Makary ne détaille pas les appareils qui ne figureront plus dans la liste des produits que la FDA régulera. Selon Statnews, cette nouvelle doctrine indique que cela va concerner des appareils qui mesurent des paramètres physiologiques tels que la pression artérielle, la saturation en oxygène et la glycémie, et qui sont destinés uniquement à des fins de bien-être. Mais cela va aussi « ouvrir la voie à l’utilisation non réglementée de produits d’IA générative pour certaines tâches médicales, telles que la synthèse des conclusions d’un radiologue ».

Conseillé par des personnes impliquées dans le business du numérique en santé

Pourtant, si une régulation était en place depuis 2022, certains chercheurs appelaient en octobre dernier dans la revue scientifique médicale JAMA à faire exactement le contraire de ce qu’annonce Marty Makary. Ils expliquaient que les lois états-uniennes excluaient déjà trop les logiciels (dont les logiciels avec de l’IA) de la définition des « dispositifs médicaux » si leur fonction est d’apporter un soutien administratif, un soutien général au bien-être, certains types d’aide à la décision clinique ou certaines fonctions de gestion de dossiers médicaux.

Mais, sur le numérique dans la santé, la FDA a indiqué à Statnews que Marty Makary est notamment conseillé par Jared Seehafer, Shantanu Nundy et Richard Abramson. Tous les trois ont travaillé pour des entreprises spécialisées dans le numérique en santé (Enzyme pour le premier, Accolade Health pour le deuxième et annalise.ai maintenant nommée Harrison.ai pour le troisième).

Selon Statnews, une des principales critiques contre la régulation de 2022 concernait le fait que si un dispositif indiquait un résultat et une voie à suivre, il entrait alors dans le périmètre de surveillance de l’agence. Du point de vue de l’industrie, il suffisait alors de proposer plusieurs résultats, même non appropriés, pour passer outre. La nouvelle directive simplifie le problème en permettant à la FDA d’exercer un pouvoir discrétionnaire sur le classement d’un dispositif dans la catégorie des produits qu’elle n’a pas à contrôler.

Enfin, Marty Makary ne veut surtout pas mettre le nez dans les affaires des entreprises de l’IA grand public, même si leurs produits génèrent des contenus sur la santé : « Si quelque chose se contente de fournir des informations comme ChatGPT ou Google, nous ne pouvons pas rivaliser avec ce géant. Nous n’allons pas intervenir et dire : « il y a un résultat qui est inexact, nous devons donc fermer ce service » », affirme-t-il à Fox Business. Les AI Overviews de Google ont pourtant généré récemment plusieurs exemples de conseils de santé erronés.

  •  

La FDA réduit sa surveillance des dispositifs de santé portables ou s’appuyant sur l’IA

Porte ouverte
La FDA réduit sa surveillance des dispositifs de santé portables ou s’appuyant sur l’IA

Le directeur de la FDA, Marty Makary, a annoncé au CES assouplir la régulation sur les appareils de santé numériques, notamment concernant les logiciels d’aide à la décision clinique (dont ceux utilisant l’IA générative) et les produits portables pour surveiller les problèmes de santé, tant que ceux-ci ne s’affichent pas comme des dispositifs médicaux.

« Une nouvelle ère pour la santé numérique », c’est le titre de la conférence qu’a donnée Marty Makary, le directeur de la FDA (Food and Drug Administration, l’agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires), ce mardi à l’occasion du CES. Cette nouvelle ère ressemble fortement à celle de l’IA voulue par Donald Trump lors de son second mandat : celle d’un assouplissement de la régulation de ces industries. Ainsi Marty Makary a affirmé vouloir favoriser un environnement propice aux investisseurs et faire évoluer la réglementation de la FDA « à la vitesse de la Silicon Valley », comme l’explique le site d’informations médicales Statnews.

L’agence a publié, de fait, une nouvelle interprétation [PDF] des critères à prendre en compte pour savoir si un logiciel d’aide à la décision clinique rentre ou non dans son périmètre de régulation.

« Laissons le marché décider »

Sur Fox Business, Marty Makary a insisté sur les assouplissements concernant les appareils considérés comme « fournissant des informations non médicales ». « Nous voulons faire savoir aux entreprises, à l’aide de directives très claires, que si leur appareil ou leur logiciel se contente de fournir des informations, elles peuvent le faire sans être soumises à la réglementation de la FDA », affirme-t-il.

« S’ils ne prétendent pas être de qualité médicale, laissons le marché décider. Laissons les médecins choisir parmi un marché concurrentiel ceux qu’ils recommandent à leurs patients. Bon nombre de ces dispositifs médicaux basés sur l’IA et ces technologies logicielles s’améliorent avec le temps. Il n’est donc pas vraiment approprié pour nous, à la FDA, d’utiliser un ancien modèle consistant simplement à apposer un cachet sur quelque chose, dans un marché en pleine évolution », ajoute le responsable de l’agence de régulation.

Marty Makary ne détaille pas les appareils qui ne figureront plus dans la liste des produits que la FDA régulera. Selon Statnews, cette nouvelle doctrine indique que cela va concerner des appareils qui mesurent des paramètres physiologiques tels que la pression artérielle, la saturation en oxygène et la glycémie, et qui sont destinés uniquement à des fins de bien-être. Mais cela va aussi « ouvrir la voie à l’utilisation non réglementée de produits d’IA générative pour certaines tâches médicales, telles que la synthèse des conclusions d’un radiologue ».

Conseillé par des personnes impliquées dans le business du numérique en santé

Pourtant, si une régulation était en place depuis 2022, certains chercheurs appelaient en octobre dernier dans la revue scientifique médicale JAMA à faire exactement le contraire de ce qu’annonce Marty Makary. Ils expliquaient que les lois états-uniennes excluaient déjà trop les logiciels (dont les logiciels avec de l’IA) de la définition des « dispositifs médicaux » si leur fonction est d’apporter un soutien administratif, un soutien général au bien-être, certains types d’aide à la décision clinique ou certaines fonctions de gestion de dossiers médicaux.

Mais, sur le numérique dans la santé, la FDA a indiqué à Statnews que Marty Makary est notamment conseillé par Jared Seehafer, Shantanu Nundy et Richard Abramson. Tous les trois ont travaillé pour des entreprises spécialisées dans le numérique en santé (Enzyme pour le premier, Accolade Health pour le deuxième et annalise.ai maintenant nommée Harrison.ai pour le troisième).

Selon Statnews, une des principales critiques contre la régulation de 2022 concernait le fait que si un dispositif indiquait un résultat et une voie à suivre, il entrait alors dans le périmètre de surveillance de l’agence. Du point de vue de l’industrie, il suffisait alors de proposer plusieurs résultats, même non appropriés, pour passer outre. La nouvelle directive simplifie le problème en permettant à la FDA d’exercer un pouvoir discrétionnaire sur le classement d’un dispositif dans la catégorie des produits qu’elle n’a pas à contrôler.

Enfin, Marty Makary ne veut surtout pas mettre le nez dans les affaires des entreprises de l’IA grand public, même si leurs produits génèrent des contenus sur la santé : « Si quelque chose se contente de fournir des informations comme ChatGPT ou Google, nous ne pouvons pas rivaliser avec ce géant. Nous n’allons pas intervenir et dire : « il y a un résultat qui est inexact, nous devons donc fermer ce service » », affirme-t-il à Fox Business. Les AI Overviews de Google ont pourtant généré récemment plusieurs exemples de conseils de santé erronés.

  •  

L’UE va négocier avec les USA l’accès à des données sensibles pour l’exemption de visa

Frontières biométriques
L’UE va négocier avec les USA l’accès à des données sensibles pour l’exemption de visa

Alors que Donald Trump menace d’annexer le Groenland, la Commission européenne va négocier en 2026 avec les États-Unis l’accès à des données sensibles de citoyens européens comme l’origine ethnique, les opinions politiques, l’orientation sexuelle ou des données biométriques pour recourir à l’exemption de visa aux frontières étatsuniennes. Les ministres des Affaires européennes des pays européens ont donné leur feu vert aux négociations.

Mi-décembre, le Conseil des affaires générales (qui rassemble tous les ministres des Affaires européennes des États membres de l’UE) a autorisé « sans débat » la Commission européenne à entamer des négociations avec les États-Unis concernant un accord-cadre prévoyant le partage de données sensibles dans le cadre de leur programme « Visa Waiver ».

Celui-ci, mis en place en 1986, permet à des ressortissants de 42 pays (dont la France) de « voyager aux États-Unis pour affaires ou pour le tourisme pour des séjours d’une durée maximale de 90 jours sans visa ».

De nouvelles conditions introduites en 2022

Mais, sous Joe Biden en 2022, les États-Unis ont introduit une nouvelle condition pour qu’un pays puisse en bénéficier : la signature d’un « Partenariat renforcé pour la sécurité des frontières », PRSF (« Enhanced Border Security Partnership », EBSP) avec le département de la Sécurité intérieure des États-Unis.

Dans ce « partenariat », ce département exige, pour donner accès au programme « Visa Waiver » aux ressortissants d’un pays, d’avoir accès à des informations sur « les voyageurs qui se rendent aux États-Unis et sont susceptibles d’avoir un lien avec le pays partenaire du programme d’exemption de visa », mais aussi toute personne qui voudrait immigrer aux États-Unis ou avoir une protection humanitaire, et enfin « les personnes détectées par les services répressifs du ministère américain de la sécurité intérieure dans le cadre des contrôles frontaliers et de l’immigration aux États-Unis », explique la Commission européenne dans un document de recommandation publié en juillet 2025. Bref, les bases de données européennes pourraient être consultées lors d’une bonne partie des contrôles d’immigration.

Rappelons que, depuis le retour de Donald Trump au pouvoir, les services de l’immigration et des douanes états-uniens, l’ICE, ont massifié leur système de surveillance, scrutant les réseaux sociaux et mettant en place une reconnaissance biométrique sans échappatoire pour les contrôles d’identité dans les rues. Les services des douanes américains envisagent de conditionner l’entrée des candidats au programme « Visa Waiver » au partage, entre autres, de 5 ans d’historique de réseaux sociaux.

Un accès conditionné à des données à caractère personnel sur les opinions politiques, l’origine, les données biométriques et génétiques…

Toujours selon le document de la Commission, l’accord-cadre pourrait autoriser « le transfert de données à caractère personnel qui révèlent l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale, ainsi que le transfert de données génétiques, de données biométriques aux fins de l’identification d’une personne physique de manière unique, et de données relatives à la santé et à la vie sexuelle ou à l’orientation sexuelle d’une personne […] pour prévenir ou combattre les infractions pénales, dont le terrorisme, visées dans l’accord-cadre, et sous réserve de garanties appropriées parant aux risques propres au traitement des données ».

Le texte affirme que ce transfert devra se faire « lorsque cela est strictement nécessaire et proportionné ». L’administration Trump a montré, par exemple avec l’enlèvement récent de Nicolás Maduro ou ses menaces d’annexer le Groenland, qu’elle pouvait passer outre ce genre de considérations. Pourtant, les gouvernements européens ont donc tous, « sans débat », donné le feu vert à la Commission européenne pour négocier cet accord-cadre.

Selon un document de travail [PDF] de la présidence danoise du Conseil obtenu par le site Statewatch datant de quelques semaines avant l’autorisation donnée par le Conseil des affaires générales, l’accord-cadre doit couvrir « le contrôle et la vérification de l’identité des voyageurs nécessaires pour déterminer si leur entrée ou leur séjour présenterait un risque pour la sécurité publique ou l’ordre public ». Et les informations pourront être utilisées « pour lutter contre l’immigration irrégulière et pour prévenir, détecter et combattre les infractions graves et les infractions terroristes, à condition que ces efforts s’inscrivent dans le cadre de la gestion et du contrôle des frontières ».

Un cadre puis des négociations bilatérales pour le détail du type de données partagées

La Commission va donc négocier ce cadre et chaque pays devra ensuite engager des négociations en bilatéral avec Washington pour préciser quels types de données pourront être utilisés et quelles bases de données seront interrogeables. Mais selon un autre document obtenu par StateWatch [PDF], ces négociations doivent aller vite, puisque les États-Unis s’attendent à ce que ces « partenariats » soient mis en place au 31 décembre 2026.

Si le Conseil met en avant une unanimité des positions, une note diplomatique allemande datant du 1e décembre [PDF] obtenue par Euractiv indiquait qu’à ce moment-là « un État membre a posé une ligne rouge ». La diplomatie allemande indiquait ensuite « (probablement la France) ». Contacté dans la matinée par Next sur le sujet, le ministère de l’Europe et des Affaires étrangères n’a pour l’instant pas répondu à nos demandes de précisions sur le sujet.

En septembre, le Contrôleur européen de la protection des données (CEPD) a émis un avis sur le sujet [PDF], affirmant que cet accord-cadre « créerait un précédent important, car il s’agirait du premier accord conclu par l’UE impliquant un partage à grande échelle de données à caractère personnel, y compris de données biométriques, à des fins de contrôle des frontières et de l’immigration par un pays tiers ». Il estimait « nécessaire de procéder à une analyse approfondie de l’impact sur les droits fondamentaux de l’accord-cadre proposé et des partenariats renforcés avec les États-Unis en matière de sécurité aux frontières ».

Dans son document de préparation, la Commission européenne précise que le Danemark et l’Irlande ne sont pas concernés par le texte (le premier en référence à sa position sur le fonctionnement de l’Union européenne, le deuxième car il ne fait pas partie de l’espace Schengen).

  •  

L’UE va négocier avec les USA l’accès à des données sensibles pour l’exemption de visa

Frontières biométriques
L’UE va négocier avec les USA l’accès à des données sensibles pour l’exemption de visa

Alors que Donald Trump menace d’annexer le Groenland, la Commission européenne va négocier en 2026 avec les États-Unis l’accès à des données sensibles de citoyens européens comme l’origine ethnique, les opinions politiques, l’orientation sexuelle ou des données biométriques pour recourir à l’exemption de visa aux frontières étatsuniennes. Les ministres des Affaires européennes des pays européens ont donné leur feu vert aux négociations.

Mi-décembre, le Conseil des affaires générales (qui rassemble tous les ministres des Affaires européennes des États membres de l’UE) a autorisé « sans débat » la Commission européenne à entamer des négociations avec les États-Unis concernant un accord-cadre prévoyant le partage de données sensibles dans le cadre de leur programme « Visa Waiver ».

Celui-ci, mis en place en 1986, permet à des ressortissants de 42 pays (dont la France) de « voyager aux États-Unis pour affaires ou pour le tourisme pour des séjours d’une durée maximale de 90 jours sans visa ».

De nouvelles conditions introduites en 2022

Mais, sous Joe Biden en 2022, les États-Unis ont introduit une nouvelle condition pour qu’un pays puisse en bénéficier : la signature d’un « Partenariat renforcé pour la sécurité des frontières », PRSF (« Enhanced Border Security Partnership », EBSP) avec le département de la Sécurité intérieure des États-Unis.

Dans ce « partenariat », ce département exige, pour donner accès au programme « Visa Waiver » aux ressortissants d’un pays, d’avoir accès à des informations sur « les voyageurs qui se rendent aux États-Unis et sont susceptibles d’avoir un lien avec le pays partenaire du programme d’exemption de visa », mais aussi toute personne qui voudrait immigrer aux États-Unis ou avoir une protection humanitaire, et enfin « les personnes détectées par les services répressifs du ministère américain de la sécurité intérieure dans le cadre des contrôles frontaliers et de l’immigration aux États-Unis », explique la Commission européenne dans un document de recommandation publié en juillet 2025. Bref, les bases de données européennes pourraient être consultées lors d’une bonne partie des contrôles d’immigration.

Rappelons que, depuis le retour de Donald Trump au pouvoir, les services de l’immigration et des douanes états-uniens, l’ICE, ont massifié leur système de surveillance, scrutant les réseaux sociaux et mettant en place une reconnaissance biométrique sans échappatoire pour les contrôles d’identité dans les rues. Les services des douanes américains envisagent de conditionner l’entrée des candidats au programme « Visa Waiver » au partage, entre autres, de 5 ans d’historique de réseaux sociaux.

Un accès conditionné à des données à caractère personnel sur les opinions politiques, l’origine, les données biométriques et génétiques…

Toujours selon le document de la Commission, l’accord-cadre pourrait autoriser « le transfert de données à caractère personnel qui révèlent l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale, ainsi que le transfert de données génétiques, de données biométriques aux fins de l’identification d’une personne physique de manière unique, et de données relatives à la santé et à la vie sexuelle ou à l’orientation sexuelle d’une personne […] pour prévenir ou combattre les infractions pénales, dont le terrorisme, visées dans l’accord-cadre, et sous réserve de garanties appropriées parant aux risques propres au traitement des données ».

Le texte affirme que ce transfert devra se faire « lorsque cela est strictement nécessaire et proportionné ». L’administration Trump a montré, par exemple avec l’enlèvement récent de Nicolás Maduro ou ses menaces d’annexer le Groenland, qu’elle pouvait passer outre ce genre de considérations. Pourtant, les gouvernements européens ont donc tous, « sans débat », donné le feu vert à la Commission européenne pour négocier cet accord-cadre.

Selon un document de travail [PDF] de la présidence danoise du Conseil obtenu par le site Statewatch datant de quelques semaines avant l’autorisation donnée par le Conseil des affaires générales, l’accord-cadre doit couvrir « le contrôle et la vérification de l’identité des voyageurs nécessaires pour déterminer si leur entrée ou leur séjour présenterait un risque pour la sécurité publique ou l’ordre public ». Et les informations pourront être utilisées « pour lutter contre l’immigration irrégulière et pour prévenir, détecter et combattre les infractions graves et les infractions terroristes, à condition que ces efforts s’inscrivent dans le cadre de la gestion et du contrôle des frontières ».

Un cadre puis des négociations bilatérales pour le détail du type de données partagées

La Commission va donc négocier ce cadre et chaque pays devra ensuite engager des négociations en bilatéral avec Washington pour préciser quels types de données pourront être utilisés et quelles bases de données seront interrogeables. Mais selon un autre document obtenu par StateWatch [PDF], ces négociations doivent aller vite, puisque les États-Unis s’attendent à ce que ces « partenariats » soient mis en place au 31 décembre 2026.

Si le Conseil met en avant une unanimité des positions, une note diplomatique allemande datant du 1e décembre [PDF] obtenue par Euractiv indiquait qu’à ce moment-là « un État membre a posé une ligne rouge ». La diplomatie allemande indiquait ensuite « (probablement la France) ». Contacté dans la matinée par Next sur le sujet, le ministère de l’Europe et des Affaires étrangères n’a pour l’instant pas répondu à nos demandes de précisions sur le sujet.

En septembre, le Contrôleur européen de la protection des données (CEPD) a émis un avis sur le sujet [PDF], affirmant que cet accord-cadre « créerait un précédent important, car il s’agirait du premier accord conclu par l’UE impliquant un partage à grande échelle de données à caractère personnel, y compris de données biométriques, à des fins de contrôle des frontières et de l’immigration par un pays tiers ». Il estimait « nécessaire de procéder à une analyse approfondie de l’impact sur les droits fondamentaux de l’accord-cadre proposé et des partenariats renforcés avec les États-Unis en matière de sécurité aux frontières ».

Dans son document de préparation, la Commission européenne précise que le Danemark et l’Irlande ne sont pas concernés par le texte (le premier en référence à sa position sur le fonctionnement de l’Union européenne, le deuxième car il ne fait pas partie de l’espace Schengen).

  •  

☕️ La bibliothèque clandestine Anna’s Archive perd son .org

Le nom de domaine annas-archive.org a été suspendu. Cette bibliothèque clandestine est, en fait, un métamoteur de recherche pour fouiller aussi bien dans Sci-hub que dans Libgen ou Z-Lib à la recherche d’epubs piratés. Son équipe s’est récemment illustrée en revendiquant la récupération de 300 To de musique de Spotify.

Mais, comme l’a repéré TorrentFreak, le registre en charge du domaine annas-archive.org semble l’avoir placé en statut « ServerHold », ce qui le désactive dans le DNS.

Comme le soulignent nos confrères, la suspension de domaines en .org, géré par le registre d’intérêt public PIR, est plutôt rare, ce qui laisse supposer qu’elle a été prise dans le cadre d’une décision de justice. Mais le directeur marketing du registre affirme à nos confrères que « malheureusement, le PIR n’est pas en mesure de commenter la situation pour le moment ».

De son côté, l’équipe de la bibliothèque clandestine a constaté sur Reddit cette suspension de façon flegmatique en indiquant : « Nos autres domaines fonctionnent correctement, et nous en avons ajouté quelques-uns supplémentaires. Nous vous recommandons de consulter notre page Wikipédia pour connaître les derniers domaines ». Elle ajoute ne pas croire que ça puisse avoir un lien avec la récupération de millions de fichiers qu’elle a effectuée sur Spotify.

  •  

☕️ La bibliothèque clandestine Anna’s Archive perd son .org

Le nom de domaine annas-archive.org a été suspendu. Cette bibliothèque clandestine est, en fait, un métamoteur de recherche pour fouiller aussi bien dans Sci-hub que dans Libgen ou Z-Lib à la recherche d’epubs piratés. Son équipe s’est récemment illustrée en revendiquant la récupération de 300 To de musique de Spotify.

Mais, comme l’a repéré TorrentFreak, le registre en charge du domaine annas-archive.org semble l’avoir placé en statut « ServerHold », ce qui le désactive dans le DNS.

Comme le soulignent nos confrères, la suspension de domaines en .org, géré par le registre d’intérêt public PIR, est plutôt rare, ce qui laisse supposer qu’elle a été prise dans le cadre d’une décision de justice. Mais le directeur marketing du registre affirme à nos confrères que « malheureusement, le PIR n’est pas en mesure de commenter la situation pour le moment ».

De son côté, l’équipe de la bibliothèque clandestine a constaté sur Reddit cette suspension de façon flegmatique en indiquant : « Nos autres domaines fonctionnent correctement, et nous en avons ajouté quelques-uns supplémentaires. Nous vous recommandons de consulter notre page Wikipédia pour connaître les derniers domaines ». Elle ajoute ne pas croire que ça puisse avoir un lien avec la récupération de millions de fichiers qu’elle a effectuée sur Spotify.

  •  

Polymarket : un gain de plus de 430 000 $ sur la chute de Maduro

Paris d'initiés
Polymarket : un gain de plus de 430 000 $ sur la chute de Maduro

En pariant sur la chute du chef d’État vénézuélien Nicolás Maduro juste avant son annonce, un internaute a gagné plus de 430 000 dollars sur Polymarket. Nouvelle lumière sur la plate-forme qui a permis de parier aussi bien sur la résistance du sous-marin touristique Titan en 2023 que plus récemment, sur des avancées militaires sur le front russo-ukrainien. Avec, pour les paris gagnants, leurs lots de soupçons de délits d’initiés ou même de manipulation de données.

Comme certains patrons du numérique très proches de Donald Trump, des utilisateurs de la plateforme de pari en ligne Polymarket ont misé sur la déstabilisation du Venezuela. L’un d’entre eux a opportunément créé un compte en décembre dernier et a commencé à parier sur le sujet « Maduro démis de ses fonctions avant le 31 janvier 2026 ? » le 31 décembre en augmentant sa mise de façon conséquente vendredi 2 janvier, juste avant l’enlèvement de Nicolás Maduro par l’armée états-unienne. Son gain ? 436 759,61 dollars après avoir misé 32 537,28 dollars en tout.

Un pic des paris sur la chute de Maduro juste avant son enlèvement

La plateforme permet de parier sur la réalisation ou non d’un événement jusqu’à une date donnée. Comme l’a repéré le Wall Street Journal, les paris en faveur du départ de Nicolás Maduro de ses fonctions avant le 31 janvier ont oscillé entre 5 % et 6 % pendant la majeure partie de la semaine dernière avant d’augmenter vendredi, atteignant 12,5 % dans la nuit peu de temps après que les États-Unis ont ordonné aux avions commerciaux de quitter l’espace aérien vénézuélien.

En tout, 56,6 millions de dollars ont été mis sur la table pour des paris sur le départ de Maduro dont 11 millions sur le fait que cela arrive avant le 31 janvier 2026 et 40 millions entre le 30 novembre 2025 et le 31 décembre 2025.

Le compte de l’utilisateur anonyme qui a remporté la plus grosse mise semble avoir été supprimé mais une sauvegarde de son profil existe sur archive.org. On peut y voir qu’il avait aussi parié de plus petites sommes sur l’invasion du Venezuela par les États-Unis et l’invocation par Donald Trump de la loi américaine sur les pouvoirs de guerre contre le Venezuela, de même avant le 31 janvier 2026 :

Aujourd’hui, sur la page d’accueil de Polymarket, on peut voir que l’actualité géopolitique est particulièrement visée par les parieurs même si le sport, et notamment le Super Bowl, est aussi présent :

Plusieurs paris gagnés sur la plateforme sont régulièrement mis en avant. Ainsi, la plateforme s’est fait remarquer vraiment pour la première fois en 2023, lorsque des utilisateurs ont parié sur la fin tragique des richissimes habitants du sous-marin touristique Titan. En novembre 2024, un utilisateur de la plateforme, se présentant comme français, a plus que doublé sa mise en remportant 155 millions de dollars sur l’élection de Donald Trump.

Mais ce cas particulier de pari sur Maduro pose plus que jamais des questions sur l’encouragement au délit d’initié et à la manipulation de l’information par ce genre de plate-forme où l’utilisateur peut faire des paris peu contrôlés sur tout et n’importe quoi.

Une manipulation des cartes en coïncidence avec un pari

Mi-novembre, ce n’est pas un délit d’initié qui a été repéré mais la manipulation de certaines données en sources ouvertes utilisées par Polymarket à propos du front opposant la Russie et l’Ukraine. En effet, certains utilisateurs parient froidement sur les différentes avancées militaires concernant l’invasion en cours de l’Ukraine par la Russie. On peut voir, par exemple, que certains internautes ont parié sur la possibilité que la Russie frappe la municipalité de Kyïv avant le 31 décembre ? Début décembre, le Kyiv Post dénonçait une « guerre transformée en casino mondial ».

Pour valider les gains sur ce sujet, Polymarket utilise notamment une carte éditée en direct par le think tank néoconservateur américain Institute for the Study of War. Celui-ci est censé mettre à jour sa carte avec une méthodologie qu’il décrit sur son site. Mais selon 404 Media, cette carte a été éditée pour afficher une fausse avancée russe sur la ville de Myrnohrad le 15 novembre, ce qui coïncide avec un pari fait sur la plateforme. La plateforme affiche plus d’1,3 million de dollars de paris concernant la prise par l’armée russe de cette ville.

Rappelons qu’en France, les jeux de hasard et d’argent sont strictement encadrés par le Code de la sécurité intérieure, même s’il a été récemment modifié par la loi 2010 - 476 du 12 mai 2010 relative à l’ouverture à la concurrence et à la régulation du secteur des jeux d’argent et de hasard en ligne. En novembre 2024, l’Autorité nationale des jeux a examiné la plateforme et a conclu que son offre était illégale sur le territoire français.

Un système de prédiction pour le milieu financier ?

Mais Polymarket et Kalshi, son concurrent direct, ne se sont pas montées financièrement comme de simples plateformes de pari en vogue sur internet. Comme l’explique Bloomberg, elles prétendent pouvoir fournir des informations utiles aux sphères économiques. Polymarket et Kalshi vendent leur plateforme comme une nouvelle forme de sondages prédictifs basée sur l’argent misé par tout un chacun à propos de son quotidien.

De fait, si elles font la une des médias sur des paris politiques, géopolitiques ou de conquêtes militaires, une bonne partie des paris s’intéresse à d’autres sujets comme le résultat de matchs de football américains ou d’autres sujets de société.

C’est sur cette promesse en tout cas, que des entreprises de la finance comme CME, Intercontinental Exchange ou Cboe Global Markets ont investi des milliards de dollars dans ce secteur. Les valeurs des deux entreprises ont doublé pendant l’année 2025 en atteignant plus de 10 milliards de dollars.

« Il est dans leur intérêt de nous convaincre que cela va être extrêmement bénéfique pour la société », explique à Bloomberg l’économiste de la Dartmouth Business School Ken French, pour qui « [ces] marchés créent en grande partie des risques qui n’ont pas lieu d’être ».

  •  

Polymarket : un gain de plus de 430 000 $ sur la chute de Maduro

Paris d'initiés
Polymarket : un gain de plus de 430 000 $ sur la chute de Maduro

En pariant sur la chute du chef d’État vénézuélien Nicolás Maduro juste avant son annonce, un internaute a gagné plus de 430 000 dollars sur Polymarket. Nouvelle lumière sur la plate-forme qui a permis de parier aussi bien sur la résistance du sous-marin touristique Titan en 2023 que plus récemment, sur des avancées militaires sur le front russo-ukrainien. Avec, pour les paris gagnants, leurs lots de soupçons de délits d’initiés ou même de manipulation de données.

Comme certains patrons du numérique très proches de Donald Trump, des utilisateurs de la plateforme de pari en ligne Polymarket ont misé sur la déstabilisation du Venezuela. L’un d’entre eux a opportunément créé un compte en décembre dernier et a commencé à parier sur le sujet « Maduro démis de ses fonctions avant le 31 janvier 2026 ? » le 31 décembre en augmentant sa mise de façon conséquente vendredi 2 janvier, juste avant l’enlèvement de Nicolás Maduro par l’armée états-unienne. Son gain ? 436 759,61 dollars après avoir misé 32 537,28 dollars en tout.

Un pic des paris sur la chute de Maduro juste avant son enlèvement

La plateforme permet de parier sur la réalisation ou non d’un événement jusqu’à une date donnée. Comme l’a repéré le Wall Street Journal, les paris en faveur du départ de Nicolás Maduro de ses fonctions avant le 31 janvier ont oscillé entre 5 % et 6 % pendant la majeure partie de la semaine dernière avant d’augmenter vendredi, atteignant 12,5 % dans la nuit peu de temps après que les États-Unis ont ordonné aux avions commerciaux de quitter l’espace aérien vénézuélien.

En tout, 56,6 millions de dollars ont été mis sur la table pour des paris sur le départ de Maduro dont 11 millions sur le fait que cela arrive avant le 31 janvier 2026 et 40 millions entre le 30 novembre 2025 et le 31 décembre 2025.

Le compte de l’utilisateur anonyme qui a remporté la plus grosse mise semble avoir été supprimé mais une sauvegarde de son profil existe sur archive.org. On peut y voir qu’il avait aussi parié de plus petites sommes sur l’invasion du Venezuela par les États-Unis et l’invocation par Donald Trump de la loi américaine sur les pouvoirs de guerre contre le Venezuela, de même avant le 31 janvier 2026 :

Aujourd’hui, sur la page d’accueil de Polymarket, on peut voir que l’actualité géopolitique est particulièrement visée par les parieurs même si le sport, et notamment le Super Bowl, est aussi présent :

Plusieurs paris gagnés sur la plateforme sont régulièrement mis en avant. Ainsi, la plateforme s’est fait remarquer vraiment pour la première fois en 2023, lorsque des utilisateurs ont parié sur la fin tragique des richissimes habitants du sous-marin touristique Titan. En novembre 2024, un utilisateur de la plateforme, se présentant comme français, a plus que doublé sa mise en remportant 155 millions de dollars sur l’élection de Donald Trump.

Mais ce cas particulier de pari sur Maduro pose plus que jamais des questions sur l’encouragement au délit d’initié et à la manipulation de l’information par ce genre de plate-forme où l’utilisateur peut faire des paris peu contrôlés sur tout et n’importe quoi.

Une manipulation des cartes en coïncidence avec un pari

Mi-novembre, ce n’est pas un délit d’initié qui a été repéré mais la manipulation de certaines données en sources ouvertes utilisées par Polymarket à propos du front opposant la Russie et l’Ukraine. En effet, certains utilisateurs parient froidement sur les différentes avancées militaires concernant l’invasion en cours de l’Ukraine par la Russie. On peut voir, par exemple, que certains internautes ont parié sur la possibilité que la Russie frappe la municipalité de Kyïv avant le 31 décembre ? Début décembre, le Kyiv Post dénonçait une « guerre transformée en casino mondial ».

Pour valider les gains sur ce sujet, Polymarket utilise notamment une carte éditée en direct par le think tank néoconservateur américain Institute for the Study of War. Celui-ci est censé mettre à jour sa carte avec une méthodologie qu’il décrit sur son site. Mais selon 404 Media, cette carte a été éditée pour afficher une fausse avancée russe sur la ville de Myrnohrad le 15 novembre, ce qui coïncide avec un pari fait sur la plateforme. La plateforme affiche plus d’1,3 million de dollars de paris concernant la prise par l’armée russe de cette ville.

Rappelons qu’en France, les jeux de hasard et d’argent sont strictement encadrés par le Code de la sécurité intérieure, même s’il a été récemment modifié par la loi 2010 - 476 du 12 mai 2010 relative à l’ouverture à la concurrence et à la régulation du secteur des jeux d’argent et de hasard en ligne. En novembre 2024, l’Autorité nationale des jeux a examiné la plateforme et a conclu que son offre était illégale sur le territoire français.

Un système de prédiction pour le milieu financier ?

Mais Polymarket et Kalshi, son concurrent direct, ne se sont pas montées financièrement comme de simples plateformes de pari en vogue sur internet. Comme l’explique Bloomberg, elles prétendent pouvoir fournir des informations utiles aux sphères économiques. Polymarket et Kalshi vendent leur plateforme comme une nouvelle forme de sondages prédictifs basée sur l’argent misé par tout un chacun à propos de son quotidien.

De fait, si elles font la une des médias sur des paris politiques, géopolitiques ou de conquêtes militaires, une bonne partie des paris s’intéresse à d’autres sujets comme le résultat de matchs de football américains ou d’autres sujets de société.

C’est sur cette promesse en tout cas, que des entreprises de la finance comme CME, Intercontinental Exchange ou Cboe Global Markets ont investi des milliards de dollars dans ce secteur. Les valeurs des deux entreprises ont doublé pendant l’année 2025 en atteignant plus de 10 milliards de dollars.

« Il est dans leur intérêt de nous convaincre que cela va être extrêmement bénéfique pour la société », explique à Bloomberg l’économiste de la Dartmouth Business School Ken French, pour qui « [ces] marchés créent en grande partie des risques qui n’ont pas lieu d’être ».

  •  

Vague massive de deepfakes générés par Grok : la justice française étend son enquête

IA pas de consentement
Vague massive de deepfakes générés par Grok : la justice française étend son enquête

Grok a généré des deepfakes de femmes déshabillées sans leur consentement, parfois des mineures, à la demande massive d’utilisateurs de X qui ont créé une tendance sur ce réseau. La justice française ajoute cette pièce au désormais épais dossier contre les deux entreprises d’Elon Musk.

La semaine dernière, avant le réveillon de la Saint-Sylvestre, nombre d’utilisateurs du réseau social X ont profité de la publication par des utilisatrices de photos d’elles-mêmes dans des tenues de fête pour les déshabiller virtuellement sans leur consentement, à l’aide de Grok. Saisi par plusieurs députés français et par des membres du gouvernement, le parquet de Paris va élargir l’enquête qu’il a déjà ouverte à propos de X et de xAI.

L’humiliation des femmes par le montage d’images à caractère sexuel n’est pas nouvelle. Mais l’IA générative permet une massification du phénomène depuis 2023 alors que des chercheuses et chercheurs avaient repéré dès 2021 que les ensembles de données utilisés pour entraîner les LLM comme LAION-400M contenaient de la misogynie, de la pornographie et des stéréotypes malveillants.

Début 2024 marquait une nouvelle étape : des utilisateurs de X partageaient massivement des deepfakes pornographiques de Taylor Swift, et quelques mois plus tard des influenceuses moins connues étaient aussi attaquées sur Instagram.

Massification via X et Grok

En cette fin d’année 2025, c’est Grok qui refait parler de lui à ce sujet. En effet, des utilisateurs du réseau social X ont massivement utilisé l’IA générative d’Elon Musk pour déshabiller virtuellement des femmes. Souvent avec une simple demande sous le partage d’une photo d’une utilisatrice, Grok générait une version de cette photo mais en représentant la personne en bikini ou plus ou moins dénudée.

En mai dernier, nos confrères de 404 expliquaient que l’outil de xAI posait très peu de freins à une demande d’utilisateur de déshabiller des femmes en reprenant des photos déjà existantes pour les trafiquer en objet de désir des utilisateurs du réseau social X. Mais cette « tendance » dégradante a été tellement suivie en cette fin d’année 2025 que n’importe quel utilisateur pouvait voir ce genre d’images dans la colonne « pour vous » du réseau social, avec certaines images ciblant des jeunes filles mineures.

« Je me suis retrouvée plus ou moins dévêtue sur plusieurs photos totalement sans mon consentement », raconte Fafa, une streameuse de 28 ans à France Info. « Trois ou quatre personnes s’étaient amusées à utiliser l’IA de X en vue de me dévêtir » en faisant un deepfake à partir d’un selfie de réveillon qu’elle avait posté le 31 décembre. Elle envisage de porter plainte. La doctorante en études théâtrales Marie Coquille-Chambel a vécu le même genre de violences sur le réseau social d’Elon Musk et a ensuite subi un harcèlement massif après l’avoir signalé sur X.

Devant la justice française

Le 2 janvier, les députés Arthur Delaporte (PS) et Éric Bothorel (Renaissance) ont tous deux saisi le procureur de la République de Paris, dénonçant ces deepfakes à caractère sexuel qui « contreviennent de fait à l’article 226-8-1 du Code pénal et portent atteinte à la dignité des personnes représentées et dont les contenus ont été détournés », comme l’affirme le signalement du député du Parti socialiste.

Quelques heures plus tard, le parquet de Paris expliquait à Politico qu’il allait élargir l’enquête déjà ouverte en juillet à propos de X, au départ pour ingérence étrangère. Il l’avait déjà étendue une première fois pour prendre en compte les propos négationnistes générés en novembre dernier par Grok, toujours publiés sur X.

Le gouvernement français réagissait un peu plus tard dans un communiqué expliquant que plusieurs de ses membres avaient aussi effectué des signalements à la justice : « les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé signalent au procureur de la République ainsi qu’à la plateforme Pharos, en vertu de l’article 40 du code de procédure pénale, des contenus manifestement illicites générés par l’intelligence artificielle générative Grok et diffusés sur la plateforme X, afin d’obtenir leur retrait immédiat ».

Alors qu’Elon Musk n’avait réagi à cette « tendance » sur son réseau social qu’avec des « 🤣🤣 » à propos d’une image de lui-même en bikini générée par IA, son entreprise a communiqué via le compte de Grok en publiant un message affirmant avoir « identifié des lacunes dans [ses] mesures de sécurité » pour répondre à un signalement d’un deepfake sur une enfant. xAI affirmait « s’ [employer] à les corriger de toute urgence » et ajoutait que « le CSAM [child sexual abuse material, la pédopornographie] est illégal et interdit » en accompagnant son message d’un lien de signalement vers un site du FBI.

L’autorité malaisienne de la communication a elle aussi réagi, expliquant sur Facebook qu’elle avait « pris note avec une vive inquiétude des plaintes du public concernant l’utilisation abusive des outils d’intelligence artificielle (IA) sur la plateforme X, en particulier la manipulation numérique d’images de femmes et de mineurs afin de produire des contenus indécents, grossièrement offensants et autrement préjudiciables » et annonçait, elle aussi, lancer une enquête à ce sujet.

  •  

Vague massive de deepfakes générés par Grok : la justice française étend son enquête

IA pas de consentement
Vague massive de deepfakes générés par Grok : la justice française étend son enquête

Grok a généré des deepfakes de femmes déshabillées sans leur consentement, parfois des mineures, à la demande massive d’utilisateurs de X qui ont créé une tendance sur ce réseau. La justice française ajoute cette pièce au désormais épais dossier contre les deux entreprises d’Elon Musk.

La semaine dernière, avant le réveillon de la Saint-Sylvestre, nombre d’utilisateurs du réseau social X ont profité de la publication par des utilisatrices de photos d’elles-mêmes dans des tenues de fête pour les déshabiller virtuellement sans leur consentement, à l’aide de Grok. Saisi par plusieurs députés français et par des membres du gouvernement, le parquet de Paris va élargir l’enquête qu’il a déjà ouverte à propos de X et de xAI.

L’humiliation des femmes par le montage d’images à caractère sexuel n’est pas nouvelle. Mais l’IA générative permet une massification du phénomène depuis 2023 alors que des chercheuses et chercheurs avaient repéré dès 2021 que les ensembles de données utilisés pour entraîner les LLM comme LAION-400M contenaient de la misogynie, de la pornographie et des stéréotypes malveillants.

Début 2024 marquait une nouvelle étape : des utilisateurs de X partageaient massivement des deepfakes pornographiques de Taylor Swift, et quelques mois plus tard des influenceuses moins connues étaient aussi attaquées sur Instagram.

Massification via X et Grok

En cette fin d’année 2025, c’est Grok qui refait parler de lui à ce sujet. En effet, des utilisateurs du réseau social X ont massivement utilisé l’IA générative d’Elon Musk pour déshabiller virtuellement des femmes. Souvent avec une simple demande sous le partage d’une photo d’une utilisatrice, Grok générait une version de cette photo mais en représentant la personne en bikini ou plus ou moins dénudée.

En mai dernier, nos confrères de 404 expliquaient que l’outil de xAI posait très peu de freins à une demande d’utilisateur de déshabiller des femmes en reprenant des photos déjà existantes pour les trafiquer en objet de désir des utilisateurs du réseau social X. Mais cette « tendance » dégradante a été tellement suivie en cette fin d’année 2025 que n’importe quel utilisateur pouvait voir ce genre d’images dans la colonne « pour vous » du réseau social, avec certaines images ciblant des jeunes filles mineures.

« Je me suis retrouvée plus ou moins dévêtue sur plusieurs photos totalement sans mon consentement », raconte Fafa, une streameuse de 28 ans à France Info. « Trois ou quatre personnes s’étaient amusées à utiliser l’IA de X en vue de me dévêtir » en faisant un deepfake à partir d’un selfie de réveillon qu’elle avait posté le 31 décembre. Elle envisage de porter plainte. La doctorante en études théâtrales Marie Coquille-Chambel a vécu le même genre de violences sur le réseau social d’Elon Musk et a ensuite subi un harcèlement massif après l’avoir signalé sur X.

Devant la justice française

Le 2 janvier, les députés Arthur Delaporte (PS) et Éric Bothorel (Renaissance) ont tous deux saisi le procureur de la République de Paris, dénonçant ces deepfakes à caractère sexuel qui « contreviennent de fait à l’article 226-8-1 du Code pénal et portent atteinte à la dignité des personnes représentées et dont les contenus ont été détournés », comme l’affirme le signalement du député du Parti socialiste.

Quelques heures plus tard, le parquet de Paris expliquait à Politico qu’il allait élargir l’enquête déjà ouverte en juillet à propos de X, au départ pour ingérence étrangère. Il l’avait déjà étendue une première fois pour prendre en compte les propos négationnistes générés en novembre dernier par Grok, toujours publiés sur X.

Le gouvernement français réagissait un peu plus tard dans un communiqué expliquant que plusieurs de ses membres avaient aussi effectué des signalements à la justice : « les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé signalent au procureur de la République ainsi qu’à la plateforme Pharos, en vertu de l’article 40 du code de procédure pénale, des contenus manifestement illicites générés par l’intelligence artificielle générative Grok et diffusés sur la plateforme X, afin d’obtenir leur retrait immédiat ».

Alors qu’Elon Musk n’avait réagi à cette « tendance » sur son réseau social qu’avec des « 🤣🤣 » à propos d’une image de lui-même en bikini générée par IA, son entreprise a communiqué via le compte de Grok en publiant un message affirmant avoir « identifié des lacunes dans [ses] mesures de sécurité » pour répondre à un signalement d’un deepfake sur une enfant. xAI affirmait « s’ [employer] à les corriger de toute urgence » et ajoutait que « le CSAM [child sexual abuse material, la pédopornographie] est illégal et interdit » en accompagnant son message d’un lien de signalement vers un site du FBI.

L’autorité malaisienne de la communication a elle aussi réagi, expliquant sur Facebook qu’elle avait « pris note avec une vive inquiétude des plaintes du public concernant l’utilisation abusive des outils d’intelligence artificielle (IA) sur la plateforme X, en particulier la manipulation numérique d’images de femmes et de mineurs afin de produire des contenus indécents, grossièrement offensants et autrement préjudiciables » et annonçait, elle aussi, lancer une enquête à ce sujet.

  •  

À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée

IA débat
À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée

Trois ans après l’arrivée de ChatGPT, les universitaires sont partagés sur la position à tenir face à cet outil, notamment dans les amphis. Refus poli et argumenté ou intégration malgré tout ? À l’université de Bordeaux-Montaigne, par exemple, des assises sur le sujet sont en cours. À Grenoble, l’enseignante-chercheuse en informatique Florence Maraninchi explique à Next que « ce n’est pas un tabou avec les étudiants, on en discute ».

Avant même la sortie de ChatGPT, certains étudiants utilisaient déjà les modèles de langage pour générer tout ou partie de leurs devoirs. Cette pratique, qui s’est largement popularisée avec l’arrivée du chatbot d’OpenAI, a changé les choses à l’université. Il est devenu compliqué de garder les mêmes systèmes d’évaluation. En effet, les devoirs, notamment ceux traditionnellement faits à la maison, ne peuvent plus être considérés comme des travaux personnels.

Trois ans après l’arrivée massive de l’IA générative dans notre quotidien, son utilisation est massive à l’université, par les étudiants de toutes disciplines, qu’ils soient en sciences humaines et sociales, en informatique, en philosophie, en ingénierie ou ailleurs.

Ainsi, 85 % des étudiants de l’université de Bordeaux-Montaigne (axée notamment sur la littérature et les sciences humaines et sociales) déclarent, en réponse à un questionnaire de l’établissement, avoir souvent recours aux IA génératives, et près de 70 % affirment l’utiliser tout le temps.

Si vous traînez en bibliothèque universitaire, vous pouvez parfois entendre des « il dit quoi ChatGPT ? » dans la bouche d’étudiants et d’étudiantes qui bossent leurs cours avec l’IA sans pour autant répéter bêtement ce que dit la machine.

Des universitaires appellent à l’ « arrêt de l’adoption aveugle » ou à l’« objection de conscience »

Si certains estiment que l’IA générative est là et qu’il faut faire avec, force est de constater que le sujet fait encore débat à l’université, en France mais aussi à l’étranger. Ainsi, en juin 2025, plusieurs universitaires néerlandais ont publié une lettre ouverte adressée aux universités de leur pays réclamant l’ « arrêt de l’adoption aveugle des technologies d’IA dans le milieu universitaire ». Celle-ci a recueilli plus de 1 500 signatures, dont celles de plusieurs de leurs collègues en dehors du pays.

En septembre, les enseignants-chercheurs qui ont impulsé cette lettre ouverte ont publié un nouveau texte plus précis pour expliquer « pourquoi les universités doivent prendre leur rôle au sérieux afin a) de contrer le marketing, le battage médiatique et les effets néfastes de l’industrie technologique, et b) de préserver l’enseignement supérieur, la pensée critique, l’expertise, la liberté académique et l’intégrité scientifique ».

Ces critiques ne viennent pas de nulle part ou de personnes qui n’y comprennent rien, au contraire. Par exemple, la première autrice de ces deux textes, Olivia Guest, est enseignante-chercheuse en neurosciences computationnelles, un domaine où on essaie de « comprendre le traitement de l’information opéré par le cerveau à l’aide des modèles de l’informatique », comme le rappelle Wikipédia.

« Étude après étude, il apparaît que les étudiants souhaitent développer ces compétences de pensée critique, qu’ils ne sont pas paresseux et qu’un grand nombre d’entre eux seraient favorables à l’interdiction de ChatGPT et d’outils similaires dans les universités », expliquait Olivia Guest dans un communiqué de son université.

Du côté français aussi la question reste discutée. En février 2025, Florence Maraninchi, professeure en informatique à Grenoble-INP UGA, a publié un billet pour expliquer pourquoi elle n’utilise pas ChatGPT et d’autres outils du genre. « Mon refus personnel de mettre le doigt dans l’engrenage ChatGPT s’appuie beaucoup sur mes connaissances scientifiques antérieures et ma méfiance envers des systèmes opaques, non déterministes et non testables, mais il est aussi nourri de positions politiques », expliquait-elle.

Depuis, un manifeste pour une « objection de conscience » dans l’enseignement supérieur a été publié. Il réunit à ce jour près de 2 000 signatures. « Nous considérons que le déploiement de l’IAg dans les institutions de l’ESR et de l’EN est incompatible avec les valeurs de rationalité et d’humanisme que nous sommes censé·es représenter et diffuser », y expliquent les enseignants-chercheurs.

« La mission de l’université n’a jamais consisté à ignorer ce qui se passe dans la société, mais à en construire la compréhension critique », lui rétorque le Réseau scientifique de recherche et de publication (TERRA-HN) dans un texte intitulé « Refuser l’IA à l’université, c’est en abandonner le contrôle au capitalisme ».


Il reste 68% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Starlink va descendre l’orbite de plus de 4 000 de ses satellites

Star links war
Starlink va descendre l’orbite de plus de 4 000 de ses satellites

Le fournisseur d’accès à Internet par satellite Starlink planifie de descendre de 70 km plus de 4 000 satellites de sa constellation. La direction de l’entreprise évoque la sécurité dans l’espace alors qu’elle en a récemment perdu un de façon incontrôlée. Elle avait pourtant déjà prévu cette manœuvre et demandé l’autorisation à la FCC depuis des mois.

« Starlink entame une reconfiguration importante de sa constellation de satellites afin d’améliorer la sécurité spatiale », a affirmé Michael Nicolls, le vice-président de l’ingénierie Starlink, dans un message publié sur le réseau social X.

Le responsable de la constellation explique que son entreprise va abaisser tous ses satellites (environ 4 400 satellites, précise-t-il) orbitant aux alentours de 550 km pour les faire rejoindre l’orbite de 480 km autour de la Terre. Il assure que cette opération est « étroitement coordonnée avec les autres opérateurs, les autorités réglementaires et l’USSPACECOM [le commandement interarmées états-unien des opérations spatiales] ». Starlink a, pour rappel, envoyé plus de 10 000 satellites en orbite, sur différentes orbites.

Améliorer la sécurité spatiale…

Michael Nicolls présente cette modification comme « une condensation des orbites Starlink » qui « améliorera la sécurité spatiale de plusieurs façons ». Son entreprise avait annoncé le 18 décembre dernier avoir perdu la communication avec l’un de ses satellites. « Le satellite est en grande partie intact, en chute libre, et va rentrer dans l’atmosphère terrestre et disparaître complètement dans les semaines à venir. La trajectoire actuelle du satellite le placera sous la Station spatiale internationale, ne présentant aucun risque pour le laboratoire orbital ou son équipage », affirmait Starlink.

« Le nombre de débris et de constellations de satellites prévues est nettement inférieur en dessous de 500 km, ce qui réduit la probabilité globale de collision », affirme Michael Nicolls pour justifier cette décision.

… Ou la place de Starlink ?

Et en effet, les places sont chères pour les constellations de satellites. Comme nous l’expliquait Gilles Brégant (directeur général de l’ANFR) en 2023, « il n’y a que six places » dans la course mondiale. Et l’autre raison pour laquelle Starlink ferait cette manœuvre pourrait être de se réserver la meilleure. Elon Musk n’a pas pu s’empêcher d’expliquer que « le principal avantage d’une altitude plus basse est que le diamètre du faisceau est plus petit pour une taille d’antenne donnée, ce qui permet à Starlink de desservir une plus grande densité de clients ».

De fait, Starlink n’avait pas attendu de perdre un satellite pour anticiper cette manœuvre. Dès octobre 2024, l’entreprise demandait à la Federal Communications Commission (FCC) l’autorisation d’abaisser l’altitude des satellites « de 525 km, 530 km et 535 km à respectivement 480 km, 485 km et 475 km », comme l’avait repéré ArsTechnica.

Dans son argumentaire [PDF], Starlink expliquait que « cette reconfiguration entraînera une augmentation du nombre maximal potentiel de plans orbitaux et de satellites par plan pour toutes les couches sauf une à 475 km, le nombre total de satellites dans le système Gen2 ne dépassera pas 29 988 satellites, et la première tranche de satellites dans le système Gen2 restera de 7 500 satellites jusqu’à ce que la Commission autorise des déploiements au-delà de cette première tranche ».

Mais l’entreprise mettait en avant d’autres arguments que ceux de la sécurité spatiale : « Cette reconfiguration permettra à SpaceX d’offrir une meilleure couverture haut débit et une meilleure qualité de service aux consommateurs américains dans les zones à forte demande, et de répondre à l’évolution de la demande des consommateurs en déployant rapidement et de manière flexible des capacités aux États-Unis et dans le monde entier, là où elles sont le plus nécessaires ». En février dernier, la FCC a officiellement accepté cette demande [PDF].

Une conséquence incidente de cette opération pourrait être l’accentuation des traces laissées par la constellation sur les observations astronomiques, traces dont se plaignent déjà régulièrement les chercheurs en astrophysique.

  •  

Starlink va descendre l’orbite de plus de 4 000 de ses satellites

Star links war
Starlink va descendre l’orbite de plus de 4 000 de ses satellites

Le fournisseur d’accès à Internet par satellite Starlink planifie de descendre de 70 km plus de 4 000 satellites de sa constellation. La direction de l’entreprise évoque la sécurité dans l’espace alors qu’elle en a récemment perdu un de façon incontrôlée. Elle avait pourtant déjà prévu cette manœuvre et demandé l’autorisation à la FCC depuis des mois.

« Starlink entame une reconfiguration importante de sa constellation de satellites afin d’améliorer la sécurité spatiale », a affirmé Michael Nicolls, le vice-président de l’ingénierie Starlink, dans un message publié sur le réseau social X.

Le responsable de la constellation explique que son entreprise va abaisser tous ses satellites (environ 4 400 satellites, précise-t-il) orbitant aux alentours de 550 km pour les faire rejoindre l’orbite de 480 km autour de la Terre. Il assure que cette opération est « étroitement coordonnée avec les autres opérateurs, les autorités réglementaires et l’USSPACECOM [le commandement interarmées états-unien des opérations spatiales] ». Starlink a, pour rappel, envoyé plus de 10 000 satellites en orbite, sur différentes orbites.

Améliorer la sécurité spatiale…

Michael Nicolls présente cette modification comme « une condensation des orbites Starlink » qui « améliorera la sécurité spatiale de plusieurs façons ». Son entreprise avait annoncé le 18 décembre dernier avoir perdu la communication avec l’un de ses satellites. « Le satellite est en grande partie intact, en chute libre, et va rentrer dans l’atmosphère terrestre et disparaître complètement dans les semaines à venir. La trajectoire actuelle du satellite le placera sous la Station spatiale internationale, ne présentant aucun risque pour le laboratoire orbital ou son équipage », affirmait Starlink.

« Le nombre de débris et de constellations de satellites prévues est nettement inférieur en dessous de 500 km, ce qui réduit la probabilité globale de collision », affirme Michael Nicolls pour justifier cette décision.

… Ou la place de Starlink ?

Et en effet, les places sont chères pour les constellations de satellites. Comme nous l’expliquait Gilles Brégant (directeur général de l’ANFR) en 2023, « il n’y a que six places » dans la course mondiale. Et l’autre raison pour laquelle Starlink ferait cette manœuvre pourrait être de se réserver la meilleure. Elon Musk n’a pas pu s’empêcher d’expliquer que « le principal avantage d’une altitude plus basse est que le diamètre du faisceau est plus petit pour une taille d’antenne donnée, ce qui permet à Starlink de desservir une plus grande densité de clients ».

De fait, Starlink n’avait pas attendu de perdre un satellite pour anticiper cette manœuvre. Dès octobre 2024, l’entreprise demandait à la Federal Communications Commission (FCC) l’autorisation d’abaisser l’altitude des satellites « de 525 km, 530 km et 535 km à respectivement 480 km, 485 km et 475 km », comme l’avait repéré ArsTechnica.

Dans son argumentaire [PDF], Starlink expliquait que « cette reconfiguration entraînera une augmentation du nombre maximal potentiel de plans orbitaux et de satellites par plan pour toutes les couches sauf une à 475 km, le nombre total de satellites dans le système Gen2 ne dépassera pas 29 988 satellites, et la première tranche de satellites dans le système Gen2 restera de 7 500 satellites jusqu’à ce que la Commission autorise des déploiements au-delà de cette première tranche ».

Mais l’entreprise mettait en avant d’autres arguments que ceux de la sécurité spatiale : « Cette reconfiguration permettra à SpaceX d’offrir une meilleure couverture haut débit et une meilleure qualité de service aux consommateurs américains dans les zones à forte demande, et de répondre à l’évolution de la demande des consommateurs en déployant rapidement et de manière flexible des capacités aux États-Unis et dans le monde entier, là où elles sont le plus nécessaires ». En février dernier, la FCC a officiellement accepté cette demande [PDF].

Une conséquence incidente de cette opération pourrait être l’accentuation des traces laissées par la constellation sur les observations astronomiques, traces dont se plaignent déjà régulièrement les chercheurs en astrophysique.

  •  

☕️ Fermeture de la principale bibliothèque de la NASA

L’administration Trump a notamment pris pour cible, depuis son retour au pouvoir, les agences scientifiques fédérales américaines.

Alors que le budget de la NASA est en baisse, l’agence spatiale américaine ferme ce vendredi la bibliothèque du Goddard Space Flight Center. Un lieu qui abrite des dizaines de milliers de livres, de documents et de revues, dont beaucoup ne sont pas numérisés ou disponibles ailleurs, explique le New York Times.

Selon un porte-parole de la NASA, l’agence va faire l’inventaire de la bibliothèque d’ici deux mois pour trier les documents qu’elle stockera dans un entrepôt gouvernemental et ceux qu’elle jettera. « Ce processus est une méthode établie utilisée par les agences fédérales pour éliminer correctement les biens appartenant à l’État fédéral », justifie-t-il auprès du New York Times.

« L’administration Trump a passé l’année dernière à attaquer la NASA Goddard et son personnel, et à menacer nos efforts visant à explorer l’espace, approfondir notre compréhension de la Terre et stimuler les avancées technologiques qui renforcent notre économie et rendent notre nation plus sûre », affirme de son côté le sénateur démocrate du Maryland Chris Van Hollen.

Le porte-parole de la NASA renvoie les employés de l’agence vers un service numérique nommé « Ask a Librarian » ou vers les bibliothèques d’autres agences fédérales.

Selon le New York Times, le fonds de cette bibliothèque inclut, entre autres, des livres de scientifiques soviétiques des années 60 et 70 comme des informations sur les premières missions de l’agence américaine.

  •  

☕️ Fermeture de la principale bibliothèque de la NASA

L’administration Trump a notamment pris pour cible, depuis son retour au pouvoir, les agences scientifiques fédérales américaines.

Alors que le budget de la NASA est en baisse, l’agence spatiale américaine ferme ce vendredi la bibliothèque du Goddard Space Flight Center. Un lieu qui abrite des dizaines de milliers de livres, de documents et de revues, dont beaucoup ne sont pas numérisés ou disponibles ailleurs, explique le New York Times.

Selon un porte-parole de la NASA, l’agence va faire l’inventaire de la bibliothèque d’ici deux mois pour trier les documents qu’elle stockera dans un entrepôt gouvernemental et ceux qu’elle jettera. « Ce processus est une méthode établie utilisée par les agences fédérales pour éliminer correctement les biens appartenant à l’État fédéral », justifie-t-il auprès du New York Times.

« L’administration Trump a passé l’année dernière à attaquer la NASA Goddard et son personnel, et à menacer nos efforts visant à explorer l’espace, approfondir notre compréhension de la Terre et stimuler les avancées technologiques qui renforcent notre économie et rendent notre nation plus sûre », affirme de son côté le sénateur démocrate du Maryland Chris Van Hollen.

Le porte-parole de la NASA renvoie les employés de l’agence vers un service numérique nommé « Ask a Librarian » ou vers les bibliothèques d’autres agences fédérales.

Selon le New York Times, le fonds de cette bibliothèque inclut, entre autres, des livres de scientifiques soviétiques des années 60 et 70 comme des informations sur les premières missions de l’agence américaine.

  •  

L’Arcom va évaluer la pertinence des actions d’éducation aux médias et au numérique

Éducation prétexte ?
L’Arcom va évaluer la pertinence des actions d’éducation aux médias et au numérique

Dans un rapport publié fin décembre, l’Arcom constate l’augmentation des actions d’éducation aux médias, à l’information et à la citoyenneté numérique (EMI&CN) par les acteurs qu’elle contrôle (chaînes de télévision, de radio et plateformes en ligne) sans pour autant être capable d’en faire un bilan réel. Pour cela, et bien tardivement, elle met en place un « kit », à usage volontaire, pour évaluer la pertinence des actions.

La fin d’année est souvent l’occasion de bilans. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en a profité la semaine dernière pour publier son rapport sur l’éducation aux médias, à l’information et à la citoyenneté numérique pour les années 2024 et 2025. Alors que pour l’instant l’Autorité ne fait le bilan que sur le décompte des actions menées, elle commence timidement à mettre en place une démarche d’évaluation… volontaire.

L’Arcom considère que ce thème entre dans ses missions d’accompagnement des acteurs qu’elle contrôle concernant leurs « responsabilités démocratiques et sociétales des médias audiovisuels et des plateformes en ligne ». Parmi ces acteurs, l’audiovisuel public depuis longtemps mais aussi les chaines du secteur privé, car l’Autorité a ajouté une clause depuis 2020 aux conventions qu’elle signe avec elles.

Depuis 2024 et la transposition du DSA dans la loi française, la participation à des campagnes d’éducation aux médias est considérée comme une des mesures à mettre en place par les très grandes plateformes et très grands moteurs de recherche en ligne (VLOPSEs) pour atténuer les risques systémiques liés à la diffusion de contenus de désinformation. L’Arcom doit veiller à ce que ces acteurs en tiennent compte. Une des difficultés est de contrôler si ces actions ont réellement une efficacité.

Une hausse des actions du PAF, peu d’informations sur celles des plateformes

Pour l’instant, l’Autorité ne donne dans son bilan que le décompte des actions menées par ces différents acteurs. Ainsi, elle met en avant qu’« en 2024 - 2025, les chaînes de télévision et de radio ont déclaré plus d’initiatives que l’exercice précédent : 267 de plus, soit une hausse de 35 %. Cette augmentation concerne tous les types d’actions : 125 actions de plus sur les antennes, 45 de plus sur le numérique et 97 de plus sur le terrain ». Sans donner de montant, l’Arcom salue « l’engagement constant des chaînes de télévision et de radio qui, chaque année, mobilisent des moyens importants pour mener ces actions ».

Plus en détail, on peut constater que la plupart de ces actions d’éducation aux médias, à l’information et au numérique du paysage audiovisuel français sont réalisées directement sur leurs antennes :

Mais l’Autorité souligne une hausse des actions de terrain : près de 100 de plus en 2025 que l’année précédente, ce qui représente une hausse de 75 %. Elle ajoute que les médias français ont suivi ses préconisations formulées en 2024 leur demandant de diversifier leur public cible.

En effet, si les collégiens et lycéens restent toujours la cible principale (58 % en 2024 et 51 % en 2025), les médias visent un peu plus les étudiants (+ 4 points entre 2024 et 2025) et le grand public (+ 8 points). L’Arcom regrette que ces actions se concentrent sur trois thèmes : « la lutte contre la désinformation (56 %), la découverte du métier de journaliste (30 %) et l’éducation au numérique, loin derrière (5 %) », et demande aux acteurs de « diversifier les thématiques abordées ».

Concernant les plateformes en ligne et les réseaux sociaux, l’Arcom est peu loquace. S’appuyant seulement sur les rapports que les plateformes doivent transmettre à la Commission européenne, elle liste juste des « tendances s’agissant de l’implication de ces acteurs en la matière ». Il y est question de campagnes d’éducation aux médias via des vidéos et des messages d’intérêt général, de l’intégration d’outils pédagogiques dans leurs services et de la conclusion de partenariats avec des associations spécialisées ou des agences de presse.

En exemple, l’Autorité donne même un programme de Google Search avec Public Librairies 2030, dont le lien date de 2022 et affiche maintenant une page d’erreur (cf sa sauvegarde sur archive.org). L’Arcom ne pose pas non plus la question de la mise en avant de ces actions par les différentes plateformes et de l’engagement qu’elles pourraient leur offrir, puisqu’elles maitrisent les algorithmes qui peuvent les booster.

Pas d’évaluation de l’efficacité

Dans ce rapport, si l’Arcom donne des chiffres sur le nombre d’actions menées au moins par les médias audiovisuels français, l’Autorité ne propose aucune évaluation de ces actions. Elle semble avoir identifié le problème, puisqu’elle annonce la mise en œuvre, « en concertation avec le ministère de l’Éducation nationale (DGESCO et DNE), le CLEMI et une chercheuse de l’Université de Lille » (sans la nommer), d’un « dispositif opérationnel pour mesurer l’impact des actions en EMI&CN ».

Celui-ci doit se faire via un « Kit d’évaluation des actions menées en EMI&CN » disponible sur la plateforme demarche.numerique.gouv.fr. Pour l’instant, cela semble se résumer à un dossier à remplir sans autre information :

  •  

L’Arcom va évaluer la pertinence des actions d’éducation aux médias et au numérique

Éducation prétexte ?
L’Arcom va évaluer la pertinence des actions d’éducation aux médias et au numérique

Dans un rapport publié fin décembre, l’Arcom constate l’augmentation des actions d’éducation aux médias, à l’information et à la citoyenneté numérique (EMI&CN) par les acteurs qu’elle contrôle (chaînes de télévision, de radio et plateformes en ligne) sans pour autant être capable d’en faire un bilan réel. Pour cela, et bien tardivement, elle met en place un « kit », à usage volontaire, pour évaluer la pertinence des actions.

La fin d’année est souvent l’occasion de bilans. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en a profité la semaine dernière pour publier son rapport sur l’éducation aux médias, à l’information et à la citoyenneté numérique pour les années 2024 et 2025. Alors que pour l’instant l’Autorité ne fait le bilan que sur le décompte des actions menées, elle commence timidement à mettre en place une démarche d’évaluation… volontaire.

L’Arcom considère que ce thème entre dans ses missions d’accompagnement des acteurs qu’elle contrôle concernant leurs « responsabilités démocratiques et sociétales des médias audiovisuels et des plateformes en ligne ». Parmi ces acteurs, l’audiovisuel public depuis longtemps mais aussi les chaines du secteur privé, car l’Autorité a ajouté une clause depuis 2020 aux conventions qu’elle signe avec elles.

Depuis 2024 et la transposition du DSA dans la loi française, la participation à des campagnes d’éducation aux médias est considérée comme une des mesures à mettre en place par les très grandes plateformes et très grands moteurs de recherche en ligne (VLOPSEs) pour atténuer les risques systémiques liés à la diffusion de contenus de désinformation. L’Arcom doit veiller à ce que ces acteurs en tiennent compte. Une des difficultés est de contrôler si ces actions ont réellement une efficacité.

Une hausse des actions du PAF, peu d’informations sur celles des plateformes

Pour l’instant, l’Autorité ne donne dans son bilan que le décompte des actions menées par ces différents acteurs. Ainsi, elle met en avant qu’« en 2024 - 2025, les chaînes de télévision et de radio ont déclaré plus d’initiatives que l’exercice précédent : 267 de plus, soit une hausse de 35 %. Cette augmentation concerne tous les types d’actions : 125 actions de plus sur les antennes, 45 de plus sur le numérique et 97 de plus sur le terrain ». Sans donner de montant, l’Arcom salue « l’engagement constant des chaînes de télévision et de radio qui, chaque année, mobilisent des moyens importants pour mener ces actions ».

Plus en détail, on peut constater que la plupart de ces actions d’éducation aux médias, à l’information et au numérique du paysage audiovisuel français sont réalisées directement sur leurs antennes :

Mais l’Autorité souligne une hausse des actions de terrain : près de 100 de plus en 2025 que l’année précédente, ce qui représente une hausse de 75 %. Elle ajoute que les médias français ont suivi ses préconisations formulées en 2024 leur demandant de diversifier leur public cible.

En effet, si les collégiens et lycéens restent toujours la cible principale (58 % en 2024 et 51 % en 2025), les médias visent un peu plus les étudiants (+ 4 points entre 2024 et 2025) et le grand public (+ 8 points). L’Arcom regrette que ces actions se concentrent sur trois thèmes : « la lutte contre la désinformation (56 %), la découverte du métier de journaliste (30 %) et l’éducation au numérique, loin derrière (5 %) », et demande aux acteurs de « diversifier les thématiques abordées ».

Concernant les plateformes en ligne et les réseaux sociaux, l’Arcom est peu loquace. S’appuyant seulement sur les rapports que les plateformes doivent transmettre à la Commission européenne, elle liste juste des « tendances s’agissant de l’implication de ces acteurs en la matière ». Il y est question de campagnes d’éducation aux médias via des vidéos et des messages d’intérêt général, de l’intégration d’outils pédagogiques dans leurs services et de la conclusion de partenariats avec des associations spécialisées ou des agences de presse.

En exemple, l’Autorité donne même un programme de Google Search avec Public Librairies 2030, dont le lien date de 2022 et affiche maintenant une page d’erreur (cf sa sauvegarde sur archive.org). L’Arcom ne pose pas non plus la question de la mise en avant de ces actions par les différentes plateformes et de l’engagement qu’elles pourraient leur offrir, puisqu’elles maitrisent les algorithmes qui peuvent les booster.

Pas d’évaluation de l’efficacité

Dans ce rapport, si l’Arcom donne des chiffres sur le nombre d’actions menées au moins par les médias audiovisuels français, l’Autorité ne propose aucune évaluation de ces actions. Elle semble avoir identifié le problème, puisqu’elle annonce la mise en œuvre, « en concertation avec le ministère de l’Éducation nationale (DGESCO et DNE), le CLEMI et une chercheuse de l’Université de Lille » (sans la nommer), d’un « dispositif opérationnel pour mesurer l’impact des actions en EMI&CN ».

Celui-ci doit se faire via un « Kit d’évaluation des actions menées en EMI&CN » disponible sur la plateforme demarche.numerique.gouv.fr. Pour l’instant, cela semble se résumer à un dossier à remplir sans autre information :

  •