Vue normale

Reçu aujourd’hui — 6 novembre 2025

☕️ De l’IA dans Tinder pour analyser les données et photos des utilisateurs

6 novembre 2025 à 08:01

Match Group, géant des applications de rencontres, a expliqué aux investisseurs qu’il allait utiliser l’IA pour traiter les données de ses utilisateurs et leur proposer une nouvelle fonctionnalité. Celle-ci, nommée Chemistry, explique TechCrunch, s’appuiera sur des questions posées aux utilisateurs et sur leurs photos (avec leur permission) pour proposer des « matchs » qui se voudront plus affinés.

Chemistry est déjà testée en Nouvelle-Zélande et en Australie et doit, selon le CEO de Match Group, Spencer Rascoff, devenir le « pilier majeur de l’expérience produit de Tinder en 2026 ».

Tinder utilise déjà l’IA générative pour la modération des discussions privées : l’application demande à l’utilisateur s’il est sûr de vouloir envoyer un message étiqueté comme potentiellement offensant par le système. L’application propose aussi d’aider l’utilisateur à choisir les photos à mettre en avant.

Match Group semble vouloir relancer son application phare avec l’IA alors que le groupe a indiqué que les revenus de Tinder avaient baissé de 3 % au troisième trimestre comparé à celui de l’année dernière et qu’elle voit son nombre d’utilisateurs payants baisser de 7 %.

☕️ De l’IA dans Tinder pour analyser les données et photos des utilisateurs

6 novembre 2025 à 08:01

Match Group, géant des applications de rencontres, a expliqué aux investisseurs qu’il allait utiliser l’IA pour traiter les données de ses utilisateurs et leur proposer une nouvelle fonctionnalité. Celle-ci, nommée Chemistry, explique TechCrunch, s’appuiera sur des questions posées aux utilisateurs et sur leurs photos (avec leur permission) pour proposer des « matchs » qui se voudront plus affinés.

Chemistry est déjà testée en Nouvelle-Zélande et en Australie et doit, selon le CEO de Match Group, Spencer Rascoff, devenir le « pilier majeur de l’expérience produit de Tinder en 2026 ».

Tinder utilise déjà l’IA générative pour la modération des discussions privées : l’application demande à l’utilisateur s’il est sûr de vouloir envoyer un message étiqueté comme potentiellement offensant par le système. L’application propose aussi d’aider l’utilisateur à choisir les photos à mettre en avant.

Match Group semble vouloir relancer son application phare avec l’IA alors que le groupe a indiqué que les revenus de Tinder avaient baissé de 3 % au troisième trimestre comparé à celui de l’année dernière et qu’elle voit son nombre d’utilisateurs payants baisser de 7 %.

Reçu hier — 5 novembre 2025

La bataille des éditeurs de presse face à Common Crawl continue

5 novembre 2025 à 13:33
Common or paywalled ?
La bataille des éditeurs de presse face à Common Crawl continue

Alors que Common Crawl fournit des téraoctets de données d’entrainement aux entreprises d’IA générative, l’organisation est accusée de récupérer des contenus placés derrière des paywalls. La presse, en France ou ailleurs, essaye de bloquer l’aspiration de ses contenus via des procédures judiciaires, mais la plupart des paywalls laissent des trous pour jouer le jeu de l’indexation dans les moteurs de recherche.

La base de données Common Crawl est sous le feu des critiques de la presse parce qu’elle fournit aux entreprises d’IA générative comme OpenAI, Google, Anthropic, Nvidia, Meta ou Amazon énormément de contenus pour l’entrainement de leurs modèles.

La plupart des grands modèles de langage s’appuient, depuis leurs origines, sur cette base de données. Celle-ci regroupe des téraoctets de textes moissonnés sur le web. Tous les mois, une nouvelle archive est publiée par Common Crawl, gérée par une structure à but non lucratif.

Ainsi, le lot d’octobre 2025 contient 2,6 milliards de pages web, correspondant à 126 téraoctets de données compressées. Si la légalité de ce genre de moissonnage pour la recherche ou pour l’indexation ne fait pas de doute, il y en a plus pour des projets commerciaux d’IA générative, notamment car leurs systèmes peuvent régurgiter les contenus qui sont sous copyright ou sous d’autres régimes de droit d’auteurs.

Des articles sous paywall dans Common Crawl ?

Ce lundi 4 novembre, The Atlantic a publié un article à propos de la base de donnée qui accuse la structure à but non lucratif d’avoir ouvert une porte dérobée (backdoor) pour les entreprises d’IA leur permettant d’entrainer leurs modèles sur les articles de presse sous paywall, et de mentir à ce sujet aux éditeurs de presse.

Notre confrère, Alex Reisner, estime que les archives de Commons Crawl contiennent « des millions d’articles provenant d’organismes de presse du monde entier, notamment The Economist, Los Angeles Times, The Wall Street Journal, The New York Times, The New Yorker, Harper’s et The Atlantic ».

En France, l’Alliance de la presse d’information générale (APIG) et le Syndicat des éditeurs de la presse magazine (SEPM) sont passés à la vitesse supérieure début septembre en mettant en demeure début septembre Common Crawl de retirer les sites de leurs membres de son archivage.

Retrait des articles de 81 éditeurs français

Un mois après, les deux lobbys de la presse ont obtenu le retrait des contenus de 81 éditeurs. Dans une interview au Journal du Net publiée début septembre, Léa Boccara, responsable du pôle juridique et des affaires publiques de l’Alliance, accusait aussi l’organisme à but non lucratif d’archiver des articles payants : « Nous sommes face à un crawling de masse d’articles et d’extraits d’articles, qui contourne les paywalls ». Elle rejoint ainsi les accusations lancées par The Atlantic.

On peut facilement imaginer, comme nos confrères états-uniens l’affirment, que Common Crawl ne se logue pas à chaque site d’information pour aspirer les contenus, mais qu’il contourne les paywalls. Et, en effet, de nombreux systèmes utilisés par la presse pour bloquer l’accès à leurs contenus se contentent de cacher avec du code javascript le texte des articles. Ainsi, alors qu’un navigateur ne l’affichera pas à l’utilisateur lambda d’un navigateur, un crawler peut facilement le récupérer.

Ajoutons qu’une bonne partie des éditeurs de presse savent que, derrière ce genre de « paywall », leurs contenus ne sont que vaguement protégés, ce qui permet de laisser les robots des moteurs de recherche classiques moissonner ces articles, et de mieux les valoriser dans leurs résultats.

Common Crawl réfute

Common Crawl a réagi à l’article de The Atlantic dans un billet publié le même jour. L’organisation réfute les accusations de mensonges envers les éditeurs de presse : « Cela donne une image fausse du fonctionnement de Common Crawl et des valeurs qui guident notre travail ». Elle ajoute : « Nous ne contournons pas les « paywalls », ne nous connectons à aucun site web et n’utilisons aucune méthode visant à contourner les restrictions d’accès ».

Elle affirme avoir toujours eu une approche transparente en publiant le code de son crawling et en le documentant publiquement, en identifiant l’user agent « CCBot » de son bot de crawling, en respectant les robots.txt et en se conformant « aux demandes de retrait et de suppression qui nous sont envoyées de bonne foi ».

Dans l’article de The Atlantic, le responsable de Common Crawl, Rich Skrenta, avait été plus direct, répondant que les éditeurs faisaient une erreur en s’excluant d’eux-mêmes de la « recherche 2.0 ». Il ajoutait : « Vous n’auriez pas dû publier votre contenu sur Internet si vous ne vouliez pas qu’il figure sur Internet ».

Enjeu économique avec des contrats à la clé

Reste que la presse n’engage pas ces démarches pour bloquer entièrement tout accès à leurs articles payants aux entreprises d’IA générative. En effet, comme l’explique l’Alliance de la presse d’information générale il y a là « un enjeu économique majeur » autour d’accords financiers avec ces mêmes entreprises d’IA.

Le Monde et Prisa Media ont, par exemple, dès le début de l’année 2024, signé des contrats avec OpenAI. L’Alliance s’appuie d’ailleurs sur l’exemple des accords noués avec Google sur les droits voisins concernant son moteur de recherche.

Louis Dreyfus, président du directoire du journal, expliquait encore récemment à l’INA que son groupe de presse a « vocation à signer d’autres accords avec d’autres acteurs ». Si Le Monde a aussi signé un contrat avec Perplexity, le responsable du journal explique que celle-ci n’a pas la possibilité d’entrainer de LLM avec ses articles, contrairement à OpenAI.

La bataille des éditeurs de presse face à Common Crawl continue

5 novembre 2025 à 13:33
Common or paywalled ?
La bataille des éditeurs de presse face à Common Crawl continue

Alors que Common Crawl fournit des téraoctets de données d’entrainement aux entreprises d’IA générative, l’organisation est accusée de récupérer des contenus placés derrière des paywalls. La presse, en France ou ailleurs, essaye de bloquer l’aspiration de ses contenus via des procédures judiciaires, mais la plupart des paywalls laissent des trous pour jouer le jeu de l’indexation dans les moteurs de recherche.

La base de données Common Crawl est sous le feu des critiques de la presse parce qu’elle fournit aux entreprises d’IA générative comme OpenAI, Google, Anthropic, Nvidia, Meta ou Amazon énormément de contenus pour l’entrainement de leurs modèles.

La plupart des grands modèles de langage s’appuient, depuis leurs origines, sur cette base de données. Celle-ci regroupe des téraoctets de textes moissonnés sur le web. Tous les mois, une nouvelle archive est publiée par Common Crawl, gérée par une structure à but non lucratif.

Ainsi, le lot d’octobre 2025 contient 2,6 milliards de pages web, correspondant à 126 téraoctets de données compressées. Si la légalité de ce genre de moissonnage pour la recherche ou pour l’indexation ne fait pas de doute, il y en a plus pour des projets commerciaux d’IA générative, notamment car leurs systèmes peuvent régurgiter les contenus qui sont sous copyright ou sous d’autres régimes de droit d’auteurs.

Des articles sous paywall dans Common Crawl ?

Ce lundi 4 novembre, The Atlantic a publié un article à propos de la base de donnée qui accuse la structure à but non lucratif d’avoir ouvert une porte dérobée (backdoor) pour les entreprises d’IA leur permettant d’entrainer leurs modèles sur les articles de presse sous paywall, et de mentir à ce sujet aux éditeurs de presse.

Notre confrère, Alex Reisner, estime que les archives de Commons Crawl contiennent « des millions d’articles provenant d’organismes de presse du monde entier, notamment The Economist, Los Angeles Times, The Wall Street Journal, The New York Times, The New Yorker, Harper’s et The Atlantic ».

En France, l’Alliance de la presse d’information générale (APIG) et le Syndicat des éditeurs de la presse magazine (SEPM) sont passés à la vitesse supérieure début septembre en mettant en demeure début septembre Common Crawl de retirer les sites de leurs membres de son archivage.

Retrait des articles de 81 éditeurs français

Un mois après, les deux lobbys de la presse ont obtenu le retrait des contenus de 81 éditeurs. Dans une interview au Journal du Net publiée début septembre, Léa Boccara, responsable du pôle juridique et des affaires publiques de l’Alliance, accusait aussi l’organisme à but non lucratif d’archiver des articles payants : « Nous sommes face à un crawling de masse d’articles et d’extraits d’articles, qui contourne les paywalls ». Elle rejoint ainsi les accusations lancées par The Atlantic.

On peut facilement imaginer, comme nos confrères états-uniens l’affirment, que Common Crawl ne se logue pas à chaque site d’information pour aspirer les contenus, mais qu’il contourne les paywalls. Et, en effet, de nombreux systèmes utilisés par la presse pour bloquer l’accès à leurs contenus se contentent de cacher avec du code javascript le texte des articles. Ainsi, alors qu’un navigateur ne l’affichera pas à l’utilisateur lambda d’un navigateur, un crawler peut facilement le récupérer.

Ajoutons qu’une bonne partie des éditeurs de presse savent que, derrière ce genre de « paywall », leurs contenus ne sont que vaguement protégés, ce qui permet de laisser les robots des moteurs de recherche classiques moissonner ces articles, et de mieux les valoriser dans leurs résultats.

Common Crawl réfute

Common Crawl a réagi à l’article de The Atlantic dans un billet publié le même jour. L’organisation réfute les accusations de mensonges envers les éditeurs de presse : « Cela donne une image fausse du fonctionnement de Common Crawl et des valeurs qui guident notre travail ». Elle ajoute : « Nous ne contournons pas les « paywalls », ne nous connectons à aucun site web et n’utilisons aucune méthode visant à contourner les restrictions d’accès ».

Elle affirme avoir toujours eu une approche transparente en publiant le code de son crawling et en le documentant publiquement, en identifiant l’user agent « CCBot » de son bot de crawling, en respectant les robots.txt et en se conformant « aux demandes de retrait et de suppression qui nous sont envoyées de bonne foi ».

Dans l’article de The Atlantic, le responsable de Common Crawl, Rich Skrenta, avait été plus direct, répondant que les éditeurs faisaient une erreur en s’excluant d’eux-mêmes de la « recherche 2.0 ». Il ajoutait : « Vous n’auriez pas dû publier votre contenu sur Internet si vous ne vouliez pas qu’il figure sur Internet ».

Enjeu économique avec des contrats à la clé

Reste que la presse n’engage pas ces démarches pour bloquer entièrement tout accès à leurs articles payants aux entreprises d’IA générative. En effet, comme l’explique l’Alliance de la presse d’information générale il y a là « un enjeu économique majeur » autour d’accords financiers avec ces mêmes entreprises d’IA.

Le Monde et Prisa Media ont, par exemple, dès le début de l’année 2024, signé des contrats avec OpenAI. L’Alliance s’appuie d’ailleurs sur l’exemple des accords noués avec Google sur les droits voisins concernant son moteur de recherche.

Louis Dreyfus, président du directoire du journal, expliquait encore récemment à l’INA que son groupe de presse a « vocation à signer d’autres accords avec d’autres acteurs ». Si Le Monde a aussi signé un contrat avec Perplexity, le responsable du journal explique que celle-ci n’a pas la possibilité d’entrainer de LLM avec ses articles, contrairement à OpenAI.

☕️ TikTok : enquête ouverte en France sur la mise en avant de contenus poussant au suicide

5 novembre 2025 à 07:49

Le parquet de Paris a ouvert une enquête préliminaire sur le fonctionnement de l’algorithme de TikTok, a-t-il annoncé dans un communiqué envoyé à l’AFP.

Cette procédure judiciaire fait suite au signalement du député Arthur Delaporte, président de la commission d’enquête parlementaire « sur les effets psychologiques de TikTok sur les mineurs ». Annonçant la saisie de la procureure de la République de Paris, Laure Beccuau, il avait affirmé le 11 septembre dernier : « Le constat est sans appel : TikTok a délibérément mis en danger la santé, la vie de ses utilisateurs », ajoutant : « Il me semble qu’il y a des infractions qui sont de nature pénale, de complicité active ».

Accablant pour la plateforme chinoise, le rapport des députés proposait 43 recommandations, dont l’interdiction des réseaux sociaux aux moins de 15 ans ainsi qu’un couvre-feu numérique pour les 15 – 18.

TikTok

Selon l’AFP, l’enquête a été confiée à la brigade de lutte contre la cybercriminalité de la préfecture de police de Paris. Elle devra se pencher sur les soupçons de « propagande en faveur de produit, objet ou méthode préconisés comme moyens de se donner la mort », de « fourniture de plateforme en ligne pour permettre une transaction illicite en bande organisée » et d’« altération du fonctionnement d’un système de traitement automatisé de données en bande organisée ».

Selon la procureure, l’enquête concernera « le respect de l’obligation de notification par une plateforme des soupçons d’infractions commises par son intermédiaire », le « fonctionnement de l’algorithme par rapport à la présentation qui en est faite à son utilisateur » et « l’édition de contenus consistant notamment à la promotion du suicide ».

« Nous réfutons fermement les accusations », a réagi la plateforme dans un communiqué envoyé à l’agence de presse. Elle ajoute qu’elle a mis en place « plus de 50 fonctionnalités et paramètres prédéfinis spécialement conçus pour assurer la sécurité et le bien-être des adolescents ».

La question des pensées suicidaires concerne aussi bien les réseaux sociaux que les algorithmes des IA. Fin aout, OpenAI avait été poursuivi en justice après le suicide d’un adolescent. La société avait annoncée dans la foulée la mise en place d’un contrôle parental. Récemment, l’entreprise américaine annonçait que 0,15 % des utilisateurs ont des « conversations qui incluent des indicateurs explicites de planification ou d’intention suicidaire potentielle », soit 1,2 million de personnes tout de même.

☕️ TikTok : enquête ouverte en France sur la mise en avant de contenus poussant au suicide

5 novembre 2025 à 07:49

Le parquet de Paris a ouvert une enquête préliminaire sur le fonctionnement de l’algorithme de TikTok, a-t-il annoncé dans un communiqué envoyé à l’AFP.

Cette procédure judiciaire fait suite au signalement du député Arthur Delaporte, président de la commission d’enquête parlementaire « sur les effets psychologiques de TikTok sur les mineurs ». Annonçant la saisie de la procureure de la République de Paris, Laure Beccuau, il avait affirmé le 11 septembre dernier : « Le constat est sans appel : TikTok a délibérément mis en danger la santé, la vie de ses utilisateurs », ajoutant : « Il me semble qu’il y a des infractions qui sont de nature pénale, de complicité active ».

Accablant pour la plateforme chinoise, le rapport des députés proposait 43 recommandations, dont l’interdiction des réseaux sociaux aux moins de 15 ans ainsi qu’un couvre-feu numérique pour les 15 – 18.

TikTok

Selon l’AFP, l’enquête a été confiée à la brigade de lutte contre la cybercriminalité de la préfecture de police de Paris. Elle devra se pencher sur les soupçons de « propagande en faveur de produit, objet ou méthode préconisés comme moyens de se donner la mort », de « fourniture de plateforme en ligne pour permettre une transaction illicite en bande organisée » et d’« altération du fonctionnement d’un système de traitement automatisé de données en bande organisée ».

Selon la procureure, l’enquête concernera « le respect de l’obligation de notification par une plateforme des soupçons d’infractions commises par son intermédiaire », le « fonctionnement de l’algorithme par rapport à la présentation qui en est faite à son utilisateur » et « l’édition de contenus consistant notamment à la promotion du suicide ».

« Nous réfutons fermement les accusations », a réagi la plateforme dans un communiqué envoyé à l’agence de presse. Elle ajoute qu’elle a mis en place « plus de 50 fonctionnalités et paramètres prédéfinis spécialement conçus pour assurer la sécurité et le bien-être des adolescents ».

La question des pensées suicidaires concerne aussi bien les réseaux sociaux que les algorithmes des IA. Fin aout, OpenAI avait été poursuivi en justice après le suicide d’un adolescent. La société avait annoncée dans la foulée la mise en place d’un contrôle parental. Récemment, l’entreprise américaine annonçait que 0,15 % des utilisateurs ont des « conversations qui incluent des indicateurs explicites de planification ou d’intention suicidaire potentielle », soit 1,2 million de personnes tout de même.

Reçu avant avant-hier

Submergée de prépublications générées par IA sur l’IA, arXiv va modérer plus strictement

4 novembre 2025 à 13:13
Les IA parlent pseudoscientifiquement aux IA au sujet de l'IA
Submergée de prépublications générées par IA sur l’IA, arXiv va modérer plus strictement

La plateforme de preprints arXiv ne va plus accepter aucune prépublication d’articles de synthèse ou d’argumentaires sur l’IA. Elle explique ce changement par l’avalanche d’articles de ce genre générés par IA sur la plateforme.

Les articles générés par IA pullulent aussi dans la sphère scientifique. Certains chercheurs ne se gênent pas pour utiliser ChatGPT ou une autre IA générative pour éditer des articles à foison, se rendre visibles dans leur communauté et polluer les plateformes de prépublication d’articles (le terme anglais « preprint » est couramment utilisé dans le milieu) comme arXiv. D’autant que sur cette plateforme, après deux articles validés par leurs pairs, les chercheurs peuvent mettre en ligne leurs articles sans modération a priori.

Envahie par des preprints générés par IA

Résultat : la plateforme historique (arXiv existe depuis 1991) de la prépublication scientifique est submergée de preprints générés par IA, notamment sur l’intelligence artificielle. Sur son blog, l’équipe d’arXiv a publié un billet expliquant qu’ « au cours des dernières années, arXiv a été inondé d’articles. L’IA générative et les grands modèles linguistiques ont contribué à cette avalanche en facilitant et en accélérant la rédaction d’articles, en particulier ceux qui ne présentent pas de nouveaux résultats de recherche ».


Il reste 72% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Les studios japonais demandent à OpenAI de ne plus utiliser leurs productions dans Sora

4 novembre 2025 à 08:07

Le lobby japonais Content Overseas Distribution Association (CODA), représentant de nombreux studios d’éditeurs de dessins animés et de jeux vidéo, a envoyé une lettre lundi 27 octobre à OpenAI pour protester contre l’utilisation de nombreuses de leurs productions pour entrainer Sora 2, comme le rapporte Automaton.

« CODA a confirmé qu’une grande partie du contenu produit par Sora 2 ressemble fortement à du contenu ou à des images japonais. CODA a déterminé que cela résulte de l’utilisation de contenu japonais comme données d’apprentissage automatique. Dans les cas où, comme avec Sora 2, des œuvres spécifiques protégées par le droit d’auteur sont reproduites ou générées de manière similaire, CODA considère que l’acte de reproduction pendant le processus d’apprentissage automatique peut constituer une violation du copyright », explique le lobby.

le problème de l'IA générative avec les copyrights

Coda rassemble des studios de dessins animés comme Aniplex, Studio Ghibli, de jeux vidéo comme Bandai Namco et Square Enix, des maisons d’édition de mangas comme Shueisha ou encore le conglomérat Kadokawa.

OpenAI a mis en place un système d’opt-out permettant aux ayants droit de demander que Sora ne génère plus de contenus ressemblant à leurs contenus. Mais CODA affirme que « dans le cadre du système japonais du copyright, une autorisation préalable est généralement requise pour l’utilisation d’œuvres protégées par le copyright, et il n’existe aucun système permettant d’échapper à la responsabilité en cas de violation par le biais d’objections ultérieures ».

Depuis le lancement de Sora, OpenAI ne se cache pas d’utiliser les productions japonaises, allant jusqu’à utiliser le style du réalisateur anti-IA Miyazaki pour la promotion de ses modèles.

Le 10 octobre, Minoru Kiuchi, le ministre japonais chargé de la sécurité économique et de la propriété intellectuelle, expliquait avoir lui aussi demandé à OpenAI d’arrêter d’utiliser les productions japonaises sans le consentement des studios. Le député japonais Akihisa Shiozaki affirmait récemment que « l’IA est en train de dévorer la culture japonaise ».

☕️ Les studios japonais demandent à OpenAI de ne plus utiliser leurs productions dans Sora

4 novembre 2025 à 08:07

Le lobby japonais Content Overseas Distribution Association (CODA), représentant de nombreux studios d’éditeurs de dessins animés et de jeux vidéo, a envoyé une lettre lundi 27 octobre à OpenAI pour protester contre l’utilisation de nombreuses de leurs productions pour entrainer Sora 2, comme le rapporte Automaton.

« CODA a confirmé qu’une grande partie du contenu produit par Sora 2 ressemble fortement à du contenu ou à des images japonais. CODA a déterminé que cela résulte de l’utilisation de contenu japonais comme données d’apprentissage automatique. Dans les cas où, comme avec Sora 2, des œuvres spécifiques protégées par le droit d’auteur sont reproduites ou générées de manière similaire, CODA considère que l’acte de reproduction pendant le processus d’apprentissage automatique peut constituer une violation du copyright », explique le lobby.

le problème de l'IA générative avec les copyrights

Coda rassemble des studios de dessins animés comme Aniplex, Studio Ghibli, de jeux vidéo comme Bandai Namco et Square Enix, des maisons d’édition de mangas comme Shueisha ou encore le conglomérat Kadokawa.

OpenAI a mis en place un système d’opt-out permettant aux ayants droit de demander que Sora ne génère plus de contenus ressemblant à leurs contenus. Mais CODA affirme que « dans le cadre du système japonais du copyright, une autorisation préalable est généralement requise pour l’utilisation d’œuvres protégées par le copyright, et il n’existe aucun système permettant d’échapper à la responsabilité en cas de violation par le biais d’objections ultérieures ».

Depuis le lancement de Sora, OpenAI ne se cache pas d’utiliser les productions japonaises, allant jusqu’à utiliser le style du réalisateur anti-IA Miyazaki pour la promotion de ses modèles.

Le 10 octobre, Minoru Kiuchi, le ministre japonais chargé de la sécurité économique et de la propriété intellectuelle, expliquait avoir lui aussi demandé à OpenAI d’arrêter d’utiliser les productions japonaises sans le consentement des studios. Le député japonais Akihisa Shiozaki affirmait récemment que « l’IA est en train de dévorer la culture japonaise ».

États-Unis : reconnaissances biométriques sans échappatoire pour les contrôles d’identité

3 novembre 2025 à 16:06
ICEtagram
États-Unis : reconnaissances biométriques sans échappatoire pour les contrôles d’identité

L’ICE, la police de l’immigration états-unienne, utilise une application de reconnaissance faciale pour vérifier l’identité des personnes qu’elle contrôle dans la rue. Selon des documents du département de la Sécurité intérieure des États-Unis, il ne serait pas possible de refuser le scan de son visage.

Les agents de l’ICE, les services d’immigration étatsuniens, ont maintenant à leur disposition une application de reconnaissance faciale. Celle-ci leur permet de vérifier l’identité de personnes qu’ils arrêtent dans la rue sans qu’elles ne puissent refuser. Depuis des mois, plusieurs vidéos circulent sur les réseaux sociaux, montrant que les agents de l’ICE n’hésitent pas à s’en servir pour contrôler des jeunes en vélo, des personnes dans leur voiture ou à pied.

Cet été, 404 Media révélait que les agents de l’ICE pouvaient utiliser via leur smartphone une application dédiée : Mobile Fortify.

Celle-ci permet aux utilisateurs de vérifier l’« identité biométrique en temps réel grâce à la capture d’empreintes digitales sans contact et d’images faciales », deux fonctionnalités directement disponibles sur le smartphone fourni par l’ICE à ses agents, expliquait un email interne de l’ICE qu’ont pu obtenir nos confrères.

Mobile Fortify s’appuie sur la base de données de photos prises aux douanes des États-Unis par la CBP (Customs and Border Protection), l’autre agence de l’immigration états-unienne.

Impossible de refuser

Mais, selon des documents officiels du département de la Sécurité intérieure des États-Unis récemment obtenus par 404 Media, il serait impossible pour les personnes contrôlées de refuser la reconnaissance faciale effectuée par Mobile Fortify. L’agence a donné très peu d’informations sur cette application.

En septembre dernier, explique le Chicago Sun Times, neuf sénateurs démocrates ont écrit [PDF] au directeur de l’ICE pour avoir plus d’informations sur cette application qui « permettrait aux agents de pointer un smartphone vers le visage ou les empreintes digitales d’une personne et de l’identifier grâce à une comparaison biométrique avec plusieurs bases de données fédérales ». Le média de l’Illinois explique d’ailleurs qu’elle n’est qu’une partie d’« un arsenal croissant » d’outils biométriques de vérification d’identité et de statut, citant aussi la reconnaissance de l’iris, l’utilisation de lecteurs de plaques d’immatriculation et la comparaison des empreintes digitales dans les diverses bases de données de police et de services d’immigration.

Les documents obtenus par 404 Media confirment que Mobile Fortify utilise la base de données du « service de vérification des voyageurs » du CBP mais aussi d’autres bases de données pour chercher une correspondance avec le visage de la personne interpelée parmi 200 millions d’images.

Des données stockées pendant 15 ans

Selon l’un des documents, les données de n’importe quelle personne peuvent être collectées : « bien que l’application Mobile Fortify ait pour objectif d’identifier les étrangers susceptibles d’être expulsés des États-Unis, les utilisateurs peuvent l’utiliser pour collecter des informations identifiables sur des individus, indépendamment de leur citoyenneté ou de leur statut d’immigration. Il est concevable qu’une photo prise par un agent à l’aide de l’application mobile Mobile Fortify puisse être celle d’une personne autre qu’un étranger, y compris un citoyen américain ou un résident permanent légal ». D’ailleurs, comme le fait remarquer ArsTechnica, dans cette vidéo où l’agent de l’ICE demande de scanner le visage de la personne, celle-ci affirme être un citoyen américain et avoir déjà montré sa carte d’identité.

Les photos pourront ensuite être utilisées par le CBP pendant des années : « le CBP enregistre les nouvelles photographies et empreintes digitales, prises à l’aide de Mobile Fortify […] et les conserve pendant 15 ans ». Si l’application est censée servir en priorité aux agents de l’ICE, 404 Media note que les documents prévoient que les agents du CBP assignés à des tâches de l’ICE peuvent aussi l’utiliser. Et nos confrères soulignent que des dizaines de milliers d’agents ont été réassignés à l’ICE récemment.

« Les responsables de l’ICE nous ont dit qu’une correspondance biométrique apparente établie par Mobile Fortify constituait une détermination « définitive » du statut d’une personne et qu’un agent de l’ICE pouvait ignorer les preuves de citoyenneté américaine, y compris un certificat de naissance, si l’application indiquait que la personne était un étranger », explique l’élu démocrate à la Chambre des représentants, Bennie G. Thompson interrogé par Arstechnica. Selon lui, cette application est « dangereuse » et constitue une « attaque inconstitutionnelle contre les droits et libertés des Américains ».

« Nous aurions dû interdire l’utilisation de la reconnaissance faciale par le gouvernement lorsque nous en avions l’occasion, car elle est dangereuse, invasive et constitue une menace inhérente aux libertés civiles », s’est lamenté Matthew Guariglia de l’Electronic Frontier Foundation auprès de 404 Media.

États-Unis : reconnaissances biométriques sans échappatoire pour les contrôles d’identité

3 novembre 2025 à 16:06
ICEtagram
États-Unis : reconnaissances biométriques sans échappatoire pour les contrôles d’identité

L’ICE, la police de l’immigration états-unienne, utilise une application de reconnaissance faciale pour vérifier l’identité des personnes qu’elle contrôle dans la rue. Selon des documents du département de la Sécurité intérieure des États-Unis, il ne serait pas possible de refuser le scan de son visage.

Les agents de l’ICE, les services d’immigration étatsuniens, ont maintenant à leur disposition une application de reconnaissance faciale. Celle-ci leur permet de vérifier l’identité de personnes qu’ils arrêtent dans la rue sans qu’elles ne puissent refuser. Depuis des mois, plusieurs vidéos circulent sur les réseaux sociaux, montrant que les agents de l’ICE n’hésitent pas à s’en servir pour contrôler des jeunes en vélo, des personnes dans leur voiture ou à pied.

Cet été, 404 Media révélait que les agents de l’ICE pouvaient utiliser via leur smartphone une application dédiée : Mobile Fortify.

Celle-ci permet aux utilisateurs de vérifier l’« identité biométrique en temps réel grâce à la capture d’empreintes digitales sans contact et d’images faciales », deux fonctionnalités directement disponibles sur le smartphone fourni par l’ICE à ses agents, expliquait un email interne de l’ICE qu’ont pu obtenir nos confrères.

Mobile Fortify s’appuie sur la base de données de photos prises aux douanes des États-Unis par la CBP (Customs and Border Protection), l’autre agence de l’immigration états-unienne.

Impossible de refuser

Mais, selon des documents officiels du département de la Sécurité intérieure des États-Unis récemment obtenus par 404 Media, il serait impossible pour les personnes contrôlées de refuser la reconnaissance faciale effectuée par Mobile Fortify. L’agence a donné très peu d’informations sur cette application.

En septembre dernier, explique le Chicago Sun Times, neuf sénateurs démocrates ont écrit [PDF] au directeur de l’ICE pour avoir plus d’informations sur cette application qui « permettrait aux agents de pointer un smartphone vers le visage ou les empreintes digitales d’une personne et de l’identifier grâce à une comparaison biométrique avec plusieurs bases de données fédérales ». Le média de l’Illinois explique d’ailleurs qu’elle n’est qu’une partie d’« un arsenal croissant » d’outils biométriques de vérification d’identité et de statut, citant aussi la reconnaissance de l’iris, l’utilisation de lecteurs de plaques d’immatriculation et la comparaison des empreintes digitales dans les diverses bases de données de police et de services d’immigration.

Les documents obtenus par 404 Media confirment que Mobile Fortify utilise la base de données du « service de vérification des voyageurs » du CBP mais aussi d’autres bases de données pour chercher une correspondance avec le visage de la personne interpelée parmi 200 millions d’images.

Des données stockées pendant 15 ans

Selon l’un des documents, les données de n’importe quelle personne peuvent être collectées : « bien que l’application Mobile Fortify ait pour objectif d’identifier les étrangers susceptibles d’être expulsés des États-Unis, les utilisateurs peuvent l’utiliser pour collecter des informations identifiables sur des individus, indépendamment de leur citoyenneté ou de leur statut d’immigration. Il est concevable qu’une photo prise par un agent à l’aide de l’application mobile Mobile Fortify puisse être celle d’une personne autre qu’un étranger, y compris un citoyen américain ou un résident permanent légal ». D’ailleurs, comme le fait remarquer ArsTechnica, dans cette vidéo où l’agent de l’ICE demande de scanner le visage de la personne, celle-ci affirme être un citoyen américain et avoir déjà montré sa carte d’identité.

Les photos pourront ensuite être utilisées par le CBP pendant des années : « le CBP enregistre les nouvelles photographies et empreintes digitales, prises à l’aide de Mobile Fortify […] et les conserve pendant 15 ans ». Si l’application est censée servir en priorité aux agents de l’ICE, 404 Media note que les documents prévoient que les agents du CBP assignés à des tâches de l’ICE peuvent aussi l’utiliser. Et nos confrères soulignent que des dizaines de milliers d’agents ont été réassignés à l’ICE récemment.

« Les responsables de l’ICE nous ont dit qu’une correspondance biométrique apparente établie par Mobile Fortify constituait une détermination « définitive » du statut d’une personne et qu’un agent de l’ICE pouvait ignorer les preuves de citoyenneté américaine, y compris un certificat de naissance, si l’application indiquait que la personne était un étranger », explique l’élu démocrate à la Chambre des représentants, Bennie G. Thompson interrogé par Arstechnica. Selon lui, cette application est « dangereuse » et constitue une « attaque inconstitutionnelle contre les droits et libertés des Américains ».

« Nous aurions dû interdire l’utilisation de la reconnaissance faciale par le gouvernement lorsque nous en avions l’occasion, car elle est dangereuse, invasive et constitue une menace inhérente aux libertés civiles », s’est lamenté Matthew Guariglia de l’Electronic Frontier Foundation auprès de 404 Media.

☕️ Bluesky : 40 millions d’utilisateurs et un bouton « je n’aime pas » en test

3 novembre 2025 à 10:29

Vendredi 31 octobre, Bluesky a annoncé avoir atteint la barre des 40 millions d’utilisateurs. Le réseau social dirigé par Jay Graber a multiplié par 2,5 son volume d’usagers depuis la mi-novembre 2024. À l’époque, le réseau était notamment porté par l’interdiction de X au Brésil et la réaction d’électeurs démocrates face à la victoire de Donald Trump lors des élections présidentielles aux États-Unis et le soutien d’Elon Musk, patron de X.

Logo de Bluesky

Le réseau semble vouloir drainer un public plus large encore. Dans un billet de blog publié le même jour, Bluesky affirme vouloir « des échanges amusants, authentiques et respectueux qui permettent de nouer des amitiés, et nous prenons des mesures pour y parvenir », alors que le réseau a essuyé récemment des critiques à propos de sa non-modération et de sa prise à la légère de propos anti trans.

Bluesky annonce dans ce billet qu’il va tester un bouton « dislike » (je n’aime pas) qui doit « aider le système à comprendre quels types de publications vous préférez voir moins souvent ». Beaucoup de réseaux sociaux ont déjà testé ce genre de fonctionnalités. Si l’option « je n’aime pas » peut être utilisée contre le harcèlement, on a pu voir sur YouTube des harceleurs la détourner en faisant du « dislike bombing », poussant la plateforme à cacher le nombre de pouces baissés à ses utilisateurs.

Dans ce nouveau système, Bluesky assure que les dislikes doivent « aider système à comprendre les types de publications que vous préférez voir moins souvent ». « Ils peuvent également influencer légèrement le classement des réponses, réduisant ainsi la visibilité des réponses de mauvaise qualité », explique encore la plateforme. « Les mentions « dislike » sont privées et leur signal n’est pas global : elles affectent principalement votre propre expérience et, dans une certaine mesure, celle des autres membres de votre réseau social », précise-t-elle.

☕️ Bluesky : 40 millions d’utilisateurs et un bouton « je n’aime pas » en test

3 novembre 2025 à 10:29

Vendredi 31 octobre, Bluesky a annoncé avoir atteint la barre des 40 millions d’utilisateurs. Le réseau social dirigé par Jay Graber a multiplié par 2,5 son volume d’usagers depuis la mi-novembre 2024. À l’époque, le réseau était notamment porté par l’interdiction de X au Brésil et la réaction d’électeurs démocrates face à la victoire de Donald Trump lors des élections présidentielles aux États-Unis et le soutien d’Elon Musk, patron de X.

Logo de Bluesky

Le réseau semble vouloir drainer un public plus large encore. Dans un billet de blog publié le même jour, Bluesky affirme vouloir « des échanges amusants, authentiques et respectueux qui permettent de nouer des amitiés, et nous prenons des mesures pour y parvenir », alors que le réseau a essuyé récemment des critiques à propos de sa non-modération et de sa prise à la légère de propos anti trans.

Bluesky annonce dans ce billet qu’il va tester un bouton « dislike » (je n’aime pas) qui doit « aider le système à comprendre quels types de publications vous préférez voir moins souvent ». Beaucoup de réseaux sociaux ont déjà testé ce genre de fonctionnalités. Si l’option « je n’aime pas » peut être utilisée contre le harcèlement, on a pu voir sur YouTube des harceleurs la détourner en faisant du « dislike bombing », poussant la plateforme à cacher le nombre de pouces baissés à ses utilisateurs.

Dans ce nouveau système, Bluesky assure que les dislikes doivent « aider système à comprendre les types de publications que vous préférez voir moins souvent ». « Ils peuvent également influencer légèrement le classement des réponses, réduisant ainsi la visibilité des réponses de mauvaise qualité », explique encore la plateforme. « Les mentions « dislike » sont privées et leur signal n’est pas global : elles affectent principalement votre propre expérience et, dans une certaine mesure, celle des autres membres de votre réseau social », précise-t-elle.

Google, Amazon, Israël et une clause spéciale pour passer outre le contrôle d’autres États

31 octobre 2025 à 16:08
💥 ;)💥 ;)💥
Google, Amazon, Israël et une clause spéciale pour passer outre le contrôle d’autres États

Google et Amazon auraient accepté, dans un contrat très lucratif avec l’État israélien, un mécanisme pour contourner d’éventuels contrôles d’autres juridictions, selon des documents obtenus par le Guardian.

Si Microsoft a largement fourni l’armée israélienne en cloud et IA, c’est bien ses deux concurrents qui ont obtenu en 2021 le contrat du « projet Nimbus » de refonte de l’infrastructure cloud de cette même armée. Projet qui, au sein de Google, a fait des remous récemment puisque l’entreprise a licencié 28 de ses employés en janvier dernier après des manifestations de salariés dans les locaux.

Pas de restriction selon les conditions d’utilisation des entreprises

Mais Google et Amazon ont accepté des clauses très particulières dans le contrat qu’ils ont signé avec l’État israélien. En effet, selon des documents du ministère des Finances israélien, dont la version finale du contrat, obtenus par le Guardian (dans le cadre d’une enquête avec les média + 972 et Local Call), les deux entreprises auraient accepté de ne jamais restreindre ou révoquer aucun accès d’Israël à leurs plateformes de cloud, même si celui-ci enfreignait leurs conditions d’utilisation.

Selon le quotidien britannique, cette clause aurait été ajoutée car les responsables auraient anticipé la pression d’activistes et d’associations de défense des droits humains ainsi que d’éventuelles décisions judiciaires dans divers pays. Selon un des documents d’analyse du contrat du ministère des Finances israélien obtenu par le Guardian, « le gouvernement est autorisé à utiliser tout service autorisé par la loi israélienne » à condition que le pays n’enfreigne pas de copyright ou ne revende pas les technologies en question.

Un clin d’œil en forme de versement spécial

Mais une autre clause est encore plus étonnante. Les responsables israéliens auraient voulu éviter la mainmise de toute autorité judiciaire européenne ou états-unienne sur les différents systèmes mis en place par Google et Amazon.

Même si les nouveaux datacenters utilisés par Google et Amazon pour le « projet Nimbus » sont sur le sol israélien, ils craignaient des évolutions législatives étrangères qui auraient contraint les deux entreprises à donner accès aux données aux autorités judiciaires en question.

Les deux entreprises sont régulièrement soumises à ce genre de demandes et ne peuvent s’y soustraire. Les responsables israéliens auraient donc imaginé un mécanisme, qualifié de « clin d’œil », qui permet à Google et Amazon d’informer très rapidement Israël d’une telle demande.

Selon les documents obtenus par le Guardian, le signal donné par l’entreprise concernée devrait se faire sous la forme d’une « compensation spéciale » au gouvernement israélien dont le montant serait lié à l’indicatif téléphonique du pays demandeur.

Ainsi, si la compensation est de 1 000 shekels, ce sont les autorités états-uniennes (indicatif téléphonique :+ 1) qui font la demande. Si c’est l’Italie (indicatif téléphonique :+ 39), la somme serait de 3 900 shekels. La somme de 100 000 shekels indiquerait, elle, que l’entreprise ne peut communiquer aucune information sur le pays en question.

Amazon, Google et Israël bottent en touche et nient en bloc

Les deux entreprises n’ont pas voulu répondre spécifiquement aux diverses questions de nos confrères. « Nous avons mis en place un processus mondial rigoureux pour répondre aux demandes légales et contraignantes concernant les données des clients », a affirmé Amazon, ajoutant « Nous n’avons mis en place aucun processus visant à contourner nos obligations de confidentialité concernant les demandes légales et contraignantes ». Google a rétorqué qu’il était « faux » de « laisser entendre que nous étions d’une manière ou d’une autre impliqués dans des activités illégales, ce qui est absurde ».

De son côté, le ministère des Finances israélien nie en bloc : « L’insinuation contenue dans cet article selon laquelle Israël contraindrait les entreprises à enfreindre la loi est sans fondement ».

Google, Amazon, Israël et une clause spéciale pour passer outre le contrôle d’autres États

31 octobre 2025 à 16:08
💥 ;)💥 ;)💥
Google, Amazon, Israël et une clause spéciale pour passer outre le contrôle d’autres États

Google et Amazon auraient accepté, dans un contrat très lucratif avec l’État israélien, un mécanisme pour contourner d’éventuels contrôles d’autres juridictions, selon des documents obtenus par le Guardian.

Si Microsoft a largement fourni l’armée israélienne en cloud et IA, c’est bien ses deux concurrents qui ont obtenu en 2021 le contrat du « projet Nimbus » de refonte de l’infrastructure cloud de cette même armée. Projet qui, au sein de Google, a fait des remous récemment puisque l’entreprise a licencié 28 de ses employés en janvier dernier après des manifestations de salariés dans les locaux.

Pas de restriction selon les conditions d’utilisation des entreprises

Mais Google et Amazon ont accepté des clauses très particulières dans le contrat qu’ils ont signé avec l’État israélien. En effet, selon des documents du ministère des Finances israélien, dont la version finale du contrat, obtenus par le Guardian (dans le cadre d’une enquête avec les média + 972 et Local Call), les deux entreprises auraient accepté de ne jamais restreindre ou révoquer aucun accès d’Israël à leurs plateformes de cloud, même si celui-ci enfreignait leurs conditions d’utilisation.

Selon le quotidien britannique, cette clause aurait été ajoutée car les responsables auraient anticipé la pression d’activistes et d’associations de défense des droits humains ainsi que d’éventuelles décisions judiciaires dans divers pays. Selon un des documents d’analyse du contrat du ministère des Finances israélien obtenu par le Guardian, « le gouvernement est autorisé à utiliser tout service autorisé par la loi israélienne » à condition que le pays n’enfreigne pas de copyright ou ne revende pas les technologies en question.

Un clin d’œil en forme de versement spécial

Mais une autre clause est encore plus étonnante. Les responsables israéliens auraient voulu éviter la mainmise de toute autorité judiciaire européenne ou états-unienne sur les différents systèmes mis en place par Google et Amazon.

Même si les nouveaux datacenters utilisés par Google et Amazon pour le « projet Nimbus » sont sur le sol israélien, ils craignaient des évolutions législatives étrangères qui auraient contraint les deux entreprises à donner accès aux données aux autorités judiciaires en question.

Les deux entreprises sont régulièrement soumises à ce genre de demandes et ne peuvent s’y soustraire. Les responsables israéliens auraient donc imaginé un mécanisme, qualifié de « clin d’œil », qui permet à Google et Amazon d’informer très rapidement Israël d’une telle demande.

Selon les documents obtenus par le Guardian, le signal donné par l’entreprise concernée devrait se faire sous la forme d’une « compensation spéciale » au gouvernement israélien dont le montant serait lié à l’indicatif téléphonique du pays demandeur.

Ainsi, si la compensation est de 1 000 shekels, ce sont les autorités états-uniennes (indicatif téléphonique :+ 1) qui font la demande. Si c’est l’Italie (indicatif téléphonique :+ 39), la somme serait de 3 900 shekels. La somme de 100 000 shekels indiquerait, elle, que l’entreprise ne peut communiquer aucune information sur le pays en question.

Amazon, Google et Israël bottent en touche et nient en bloc

Les deux entreprises n’ont pas voulu répondre spécifiquement aux diverses questions de nos confrères. « Nous avons mis en place un processus mondial rigoureux pour répondre aux demandes légales et contraignantes concernant les données des clients », a affirmé Amazon, ajoutant « Nous n’avons mis en place aucun processus visant à contourner nos obligations de confidentialité concernant les demandes légales et contraignantes ». Google a rétorqué qu’il était « faux » de « laisser entendre que nous étions d’une manière ou d’une autre impliqués dans des activités illégales, ce qui est absurde ».

De son côté, le ministère des Finances israélien nie en bloc : « L’insinuation contenue dans cet article selon laquelle Israël contraindrait les entreprises à enfreindre la loi est sans fondement ».

ChatControl : l’Europe renonce à obliger les messageries à contrôler les contenus partagés

31 octobre 2025 à 09:36
CSARaté
ChatControl : l’Europe renonce à obliger les messageries à contrôler les contenus partagés

Le Danemark a annoncé l’abandon par l’Union européenne du projet controversé Chat Control. Celui-ci prévoyait d’obliger les messageries à contrôler ce que les utilisateurs partagent, en s’appuyant sur la lutte contre les contenus à caractère pédosexuel.

Finalement, le Danemark, qui préside actuellement l’Union européenne, a décidé de retirer la surveillance des messageries du texte du projet de règlement européen « établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants » (ou CSAR, pour Child Sexual Abuse Regulation).

Une surveillance obligatoire abandonnée

Le ministre de la Justice danois, Peter Hummelgaard, a expliqué ce jeudi 30 octobre « que l’obligation de recherche [sur les contenus pédopornographiques] ne fera pas partie de la nouvelle proposition de compromis de la présidence de l’UE et que la recherche de matériel pédopornographique restera volontaire pour les géants de la technologie ».

Depuis trois ans, le projet proposait d’obliger les créateurs de messageries à scanner les images et adresses URL avant qu’elles ne soient envoyées, directement sur les terminaux des utilisateurs de messageries, notamment chiffrées. Il était devenu « l’une des priorités phares » du Danemark pour sa présidence.

Mais récemment l’Allemagne avait douché les espoirs d’un accord sur le sujet. « Le contrôle injustifié des conversations en ligne doit être tabou dans un État de droit », avait notamment déclaré Stefanie Hubig, ministre fédérale allemande de la Justice et de la Protection des consommateurs. Et le parti danois Modérés, au pouvoir actuellement, s’est récemment prononcé contre.

Selon Euractiv, la présidence de l’Union européenne a envoyé, en parallèle, un document de travail aux représentants des pays de l’UE pour recueillir leurs avis sur le projet de texte expurgé donc du passage sur Chat Control et arriver ainsi à un compromis.

« Un triomphe » mesuré pour l’ancien député européen Patrick Breyer

« Cette nouvelle approche est un triomphe pour le mouvement en faveur de la liberté numérique et un grand pas en avant pour la préservation de notre droit fondamental à la confidentialité de notre correspondance numérique », affirme l’ancien député du Parti pirate allemand, Patrick Breyer, qui s’est vivement opposé à ce texte. « Elle permettrait de protéger le chiffrement sécurisé et donc de garantir la sécurité de nos smartphones ».

Si l’obligation de contrôler les contenus est abandonnée, le Danemark espère maintenir la possibilité de le faire pour les messageries qui le désirent. Le dispositif juridique européen actuel qui le permet va arriver à expiration en avril 2026 et la présidence de l’Union européenne compte le renouveler dans son texte.

« Même lorsqu’elle est mise en œuvre volontairement par des fournisseurs de services de communication tels que Meta, Microsoft ou Google, la surveillance des chats reste totalement aveugle et se traduit par une surveillance massive et indiscriminée de tous les messages privés échangés sur ces services », commente Patrick Breyer.

L’ancien eurodéputé continue à critiquer d’autres parties du texte en cours de discussion, considérant qu’un article introduisant un âge minimum de 16 ans pour installer certaines applications interdirait l’utilisation aux adolescents de WhatsApp, Snapchat, Telegram, Instagram ou TikTok, mais aussi des jeux comme FIFA ou GTA. Selon lui, un autre article bloquerait aussi toute communication anonyme puisqu’il obligerait l’identification de l’utilisateur des messageries via une pièce d’identité ou reconnaissance faciale.

Avec le retrait du dispositif Chat Control, la présidence danoise pourrait néanmoins trouver un compromis au sein de l’Union européenne et préparer le texte pour entrer dans la phase de négociations avec le Parlement européen, explique Euractiv.

ChatControl : l’Europe renonce à obliger les messageries à contrôler les contenus partagés

31 octobre 2025 à 09:36
CSARaté
ChatControl : l’Europe renonce à obliger les messageries à contrôler les contenus partagés

Le Danemark a annoncé l’abandon par l’Union européenne du projet controversé Chat Control. Celui-ci prévoyait d’obliger les messageries à contrôler ce que les utilisateurs partagent, en s’appuyant sur la lutte contre les contenus à caractère pédosexuel.

Finalement, le Danemark, qui préside actuellement l’Union européenne, a décidé de retirer la surveillance des messageries du texte du projet de règlement européen « établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants » (ou CSAR, pour Child Sexual Abuse Regulation).

Une surveillance obligatoire abandonnée

Le ministre de la Justice danois, Peter Hummelgaard, a expliqué ce jeudi 30 octobre « que l’obligation de recherche [sur les contenus pédopornographiques] ne fera pas partie de la nouvelle proposition de compromis de la présidence de l’UE et que la recherche de matériel pédopornographique restera volontaire pour les géants de la technologie ».

Depuis trois ans, le projet proposait d’obliger les créateurs de messageries à scanner les images et adresses URL avant qu’elles ne soient envoyées, directement sur les terminaux des utilisateurs de messageries, notamment chiffrées. Il était devenu « l’une des priorités phares » du Danemark pour sa présidence.

Mais récemment l’Allemagne avait douché les espoirs d’un accord sur le sujet. « Le contrôle injustifié des conversations en ligne doit être tabou dans un État de droit », avait notamment déclaré Stefanie Hubig, ministre fédérale allemande de la Justice et de la Protection des consommateurs. Et le parti danois Modérés, au pouvoir actuellement, s’est récemment prononcé contre.

Selon Euractiv, la présidence de l’Union européenne a envoyé, en parallèle, un document de travail aux représentants des pays de l’UE pour recueillir leurs avis sur le projet de texte expurgé donc du passage sur Chat Control et arriver ainsi à un compromis.

« Un triomphe » mesuré pour l’ancien député européen Patrick Breyer

« Cette nouvelle approche est un triomphe pour le mouvement en faveur de la liberté numérique et un grand pas en avant pour la préservation de notre droit fondamental à la confidentialité de notre correspondance numérique », affirme l’ancien député du Parti pirate allemand, Patrick Breyer, qui s’est vivement opposé à ce texte. « Elle permettrait de protéger le chiffrement sécurisé et donc de garantir la sécurité de nos smartphones ».

Si l’obligation de contrôler les contenus est abandonnée, le Danemark espère maintenir la possibilité de le faire pour les messageries qui le désirent. Le dispositif juridique européen actuel qui le permet va arriver à expiration en avril 2026 et la présidence de l’Union européenne compte le renouveler dans son texte.

« Même lorsqu’elle est mise en œuvre volontairement par des fournisseurs de services de communication tels que Meta, Microsoft ou Google, la surveillance des chats reste totalement aveugle et se traduit par une surveillance massive et indiscriminée de tous les messages privés échangés sur ces services », commente Patrick Breyer.

L’ancien eurodéputé continue à critiquer d’autres parties du texte en cours de discussion, considérant qu’un article introduisant un âge minimum de 16 ans pour installer certaines applications interdirait l’utilisation aux adolescents de WhatsApp, Snapchat, Telegram, Instagram ou TikTok, mais aussi des jeux comme FIFA ou GTA. Selon lui, un autre article bloquerait aussi toute communication anonyme puisqu’il obligerait l’identification de l’utilisateur des messageries via une pièce d’identité ou reconnaissance faciale.

Avec le retrait du dispositif Chat Control, la présidence danoise pourrait néanmoins trouver un compromis au sein de l’Union européenne et préparer le texte pour entrer dans la phase de négociations avec le Parlement européen, explique Euractiv.

Accusée de piratage de films porno pour ses IA, Meta invoque l’ « usage personnel »

30 octobre 2025 à 14:42
nsfw
Accusée de piratage de films porno pour ses IA, Meta invoque l’ « usage personnel »

Depuis juillet, Meta fait l’objet d’une plainte de deux studios de production de vidéos porno, qui l’accusent d’avoir téléchargé illégalement plus de 2 000 contenus pour entrainer ses IA. L’entreprise de Mark Zuckerberg réplique en invoquant plutôt l’« usage personnel » de ses salariés, sous-traitants ou visiteurs.

De nombreuses entreprises accusent les entreprises d’IA générative d’utiliser leurs contenus illégalement pour entrainer leurs modèles.

Cet été, deux entreprises états-uniennes de production et de distribution de films porno, Strike 3 Holdings et Counterlife Media, ont attaqué Meta, en l’accusant d’avoir téléchargé, via le protocole BitTorrent, 2 396 films. Elles demandent des dommages et intérêts qui pourraient atteindre 350 millions de dollars.

Cette semaine, comme l’explique Torrent Freak, Meta a demandé au tribunal américain en charge de l’affaire de rejeter la plainte en arguant notamment que les téléchargements de ces vidéos étaient pour de l’ « usage personnel ».

47 IP de Meta ayant téléchargé les vidéos de deux studios

Dans leur plainte initiale, les deux studios affirmaient que Meta avait téléchargé leurs contenus « à partir de sources pirates dans le but d’acquérir du contenu pour former son Meta Movie Gen, son modèle linguistique à grande échelle (« LLaMA »), ainsi que divers autres modèles d’IA Meta qui s’appuient sur du contenu vidéo pour l’entraînement ». Et d’évoquer la possibilité que Meta les concurrence en créant un modèle qui puisse générer des films en reproduisant la « qualité hollywoodienne » technique de leurs films.

Strike 3 Holdings et Counterlife Media expliquent avoir découvert 47 IP appartenant à Meta dans les bases de données qu’elles ont mises en place pour repérer les utilisateurs de BitTorrent s’échangeant leurs contenus. Elles affirment avoir fait cette recherche suite à l’affaire opposant Meta à l’autrice Andrea Bartz et aux auteurs Charles Graeber et Kirk Wallace Johnson, dans laquelle l’entreprise a aussi été accusée d’utiliser le protocole de transfert de données pair-à-pair.

Meta se décharge sur l’ « usage personnel » de ses salariés, sous-traitants et visiteurs

Les avocats de l’entreprise de Mark Zuckerberg font remarquer, dans leur document envoyé au juge [PDF], que Strike 3 Holdings a déjà « intenté des milliers de poursuites judiciaires » et « a été qualifié par certains de « troll des droits d’auteur » qui intente des poursuites judiciaires abusives ».

Ils qualifient le téléchargement de « sporadique » en faisant remarquer que les premiers fichiers incriminés datent de 2018, « soit plusieurs années avant que Meta n’ait prétendument « commencé à faire des recherches sur les modèles multimodaux et la vidéo générative » en 2022 » et pointent le fait que les deux studios ne montrent pas comment ce téléchargement « aurait pu avoir pour objectif « d’acquérir du contenu pour entraîner » ces modèles ».

Mais Meta va plus loin. L’entreprise semble se dédouaner de toute responsabilité en affirmant que les téléchargements étaient « tout au plus » le fait de « sous-traitants, visiteurs ou employés de Meta […] à des fins personnelles ».

Les studios accusaient justement Meta d’avoir utilisé des IP en dehors de son infrastructure pour dissimuler ses activités sur BitTorrent. Ils avaient présenté des corrélations entre les différentes activités des IP pour justifier cette association et affirmaient que « ces corrélations quantifient également le fait que les adresses IP « hors infrastructure » et celles de Meta agissent de manière cohérente selon des modèles non humains et que l’acquisition de ce contenu est destinée à l’entraînement de l’IA et non à un usage personnel ».

De son côté, Meta réfute la méthode qui permettrait aux studios d’affirmer qu’il y a une corrélation entre les téléchargements depuis son réseau et en dehors. Elle ajoute que les moments où se passaient les téléchargements ne correspondent pas à un plan de téléchargements établi mais plutôt à de l’ « usage personnel ».

Enfin, l’entreprise pose la question : « pourquoi Meta chercherait-elle à « dissimuler » certains téléchargements présumés de contenus appartenant aux plaignants et à des tiers, mais utiliserait des adresses IP de Meta facilement traçables pour plusieurs centaines d’autres, dont 157 œuvres des plaignants ? ». Meta demande donc à la justice états-unienne d’abandonner ce cas.

Strike 3 Holdings et Counterlife Media ont deux semaines pour donner leurs arguments contre cet abandon. Dans leur plainte, elles affirmaient que « Meta a le droit et la capacité de superviser et/ou de contrôler ses propres adresses IP d’entreprise, ainsi que les adresses IP hébergées dans des centres de données hors infrastructure, et les actes de ses employés et agents qui enfreignent les œuvres des plaignants via leurs adresses IP résidentielles » en passant par des outils fournis par Meta.

Accusée de piratage de films porno pour ses IA, Meta invoque l’ « usage personnel »

30 octobre 2025 à 14:42
nsfw
Accusée de piratage de films porno pour ses IA, Meta invoque l’ « usage personnel »

Depuis juillet, Meta fait l’objet d’une plainte de deux studios de production de vidéos porno, qui l’accusent d’avoir téléchargé illégalement plus de 2 000 contenus pour entrainer ses IA. L’entreprise de Mark Zuckerberg réplique en invoquant plutôt l’« usage personnel » de ses salariés, sous-traitants ou visiteurs.

De nombreuses entreprises accusent les entreprises d’IA générative d’utiliser leurs contenus illégalement pour entrainer leurs modèles.

Cet été, deux entreprises états-uniennes de production et de distribution de films porno, Strike 3 Holdings et Counterlife Media, ont attaqué Meta, en l’accusant d’avoir téléchargé, via le protocole BitTorrent, 2 396 films. Elles demandent des dommages et intérêts qui pourraient atteindre 350 millions de dollars.

Cette semaine, comme l’explique Torrent Freak, Meta a demandé au tribunal américain en charge de l’affaire de rejeter la plainte en arguant notamment que les téléchargements de ces vidéos étaient pour de l’ « usage personnel ».

47 IP de Meta ayant téléchargé les vidéos de deux studios

Dans leur plainte initiale, les deux studios affirmaient que Meta avait téléchargé leurs contenus « à partir de sources pirates dans le but d’acquérir du contenu pour former son Meta Movie Gen, son modèle linguistique à grande échelle (« LLaMA »), ainsi que divers autres modèles d’IA Meta qui s’appuient sur du contenu vidéo pour l’entraînement ». Et d’évoquer la possibilité que Meta les concurrence en créant un modèle qui puisse générer des films en reproduisant la « qualité hollywoodienne » technique de leurs films.

Strike 3 Holdings et Counterlife Media expliquent avoir découvert 47 IP appartenant à Meta dans les bases de données qu’elles ont mises en place pour repérer les utilisateurs de BitTorrent s’échangeant leurs contenus. Elles affirment avoir fait cette recherche suite à l’affaire opposant Meta à l’autrice Andrea Bartz et aux auteurs Charles Graeber et Kirk Wallace Johnson, dans laquelle l’entreprise a aussi été accusée d’utiliser le protocole de transfert de données pair-à-pair.

Meta se décharge sur l’ « usage personnel » de ses salariés, sous-traitants et visiteurs

Les avocats de l’entreprise de Mark Zuckerberg font remarquer, dans leur document envoyé au juge [PDF], que Strike 3 Holdings a déjà « intenté des milliers de poursuites judiciaires » et « a été qualifié par certains de « troll des droits d’auteur » qui intente des poursuites judiciaires abusives ».

Ils qualifient le téléchargement de « sporadique » en faisant remarquer que les premiers fichiers incriminés datent de 2018, « soit plusieurs années avant que Meta n’ait prétendument « commencé à faire des recherches sur les modèles multimodaux et la vidéo générative » en 2022 » et pointent le fait que les deux studios ne montrent pas comment ce téléchargement « aurait pu avoir pour objectif « d’acquérir du contenu pour entraîner » ces modèles ».

Mais Meta va plus loin. L’entreprise semble se dédouaner de toute responsabilité en affirmant que les téléchargements étaient « tout au plus » le fait de « sous-traitants, visiteurs ou employés de Meta […] à des fins personnelles ».

Les studios accusaient justement Meta d’avoir utilisé des IP en dehors de son infrastructure pour dissimuler ses activités sur BitTorrent. Ils avaient présenté des corrélations entre les différentes activités des IP pour justifier cette association et affirmaient que « ces corrélations quantifient également le fait que les adresses IP « hors infrastructure » et celles de Meta agissent de manière cohérente selon des modèles non humains et que l’acquisition de ce contenu est destinée à l’entraînement de l’IA et non à un usage personnel ».

De son côté, Meta réfute la méthode qui permettrait aux studios d’affirmer qu’il y a une corrélation entre les téléchargements depuis son réseau et en dehors. Elle ajoute que les moments où se passaient les téléchargements ne correspondent pas à un plan de téléchargements établi mais plutôt à de l’ « usage personnel ».

Enfin, l’entreprise pose la question : « pourquoi Meta chercherait-elle à « dissimuler » certains téléchargements présumés de contenus appartenant aux plaignants et à des tiers, mais utiliserait des adresses IP de Meta facilement traçables pour plusieurs centaines d’autres, dont 157 œuvres des plaignants ? ». Meta demande donc à la justice états-unienne d’abandonner ce cas.

Strike 3 Holdings et Counterlife Media ont deux semaines pour donner leurs arguments contre cet abandon. Dans leur plainte, elles affirmaient que « Meta a le droit et la capacité de superviser et/ou de contrôler ses propres adresses IP d’entreprise, ainsi que les adresses IP hébergées dans des centres de données hors infrastructure, et les actes de ses employés et agents qui enfreignent les œuvres des plaignants via leurs adresses IP résidentielles » en passant par des outils fournis par Meta.

Budget 2026 : votes d’un impôt pour les multinationales et du doublement de la taxe GAFAM

29 octobre 2025 à 11:30
Gafamoney
Budget 2026 : votes d’un impôt pour les multinationales et du doublement de la taxe GAFAM

Les députés ont voté mardi 28 octobre en soirée un amendement de LFI pour un impôt sur les multinationales et un passage de 3 à 6 % de la taxe GAFAM proposé par le député Renaissance Jean-René Cazeneuve, qui avait envisagé d’aller jusqu’à 15 %.

En première lecture du projet de loi du budget 2026, les députés ont approuvé à 207 voix contre 89 « un impôt universel sur les sociétés transnationales qui échappent au Fisc » proposé par LFI. Ils ont aussi approuvé à 296 voix pour et 58 contre le doublement de la taxe GAFAM, proposé cette fois par le député Jean-René Cazeneuve.

Votées ce 28 octobre contre l’avis du gouvernement, ces deux mesures pourraient rapporter 26 milliards d’euros en tout, selon leurs auteurs. Mais elles ont peu de chances de passer l’étape du Sénat. Selon notre consœur de Médiapart Pauline Graulle, elles seraient « peut-être même un coup de grâce porté aux discussions budgétaires à l’Assemblée nationale ».

Taxer les bénéfices des multinationales en proportion de leur activité en France

Inspiré par une proposition de l’association ATTAC et par les travaux de l’économiste Gabriel Zucman, l’amendement de LFI veut « taxer les bénéfices des multinationales proportionnellement à leur activité réellement réalisée en France ». Il prévoit que « toute personne morale ayant une activité en France est imposable à hauteur du ratio de son chiffre d’affaires réalisé sur le territoire national ramené à son chiffre d’affaires mondial ».

Le texte s’appuie sur une définition très élargie de celui-ci, puisque ce CA serait calculé en « incluant également le chiffre d’affaires des entités juridiques dont [l’entreprise] détient plus de 50 % des actions, parts, droits financiers ou droits de vote ». De quoi faire réagir des multinationales du numérique comme Google ou Amazon.

« Je crains que cet amendement soit contraire à une directive européenne fixant [le taux d’imposition] à 15 % et non 25 % », a réagi le rapporteur du budget et député Républicain, Philippe Juvin, en s’y opposant. De son côté, le député LFI, Manuel Bompard, considère que « c’est compatible avec la législation française et internationale ». Le ministre de l’Économie, Roland Lescure, s’y est aussi opposé, arguant que le vote de cet amendement apporterait « 20 milliards d’ennuis » à la France et rappelant les diverses conventions fiscales signées par la France en bilatéral avec 125 pays.

Un doublement de la taxe Gafam

L’autre amendement voté hier soir de manière un peu surprenante est celui augmentant la taxe Gafam. Comme nous l’expliquions la semaine dernière, un amendement déposé par le député Renaissance, Jean-René Cazeneuve, proposait « de porter de 3 % à 15 % » le taux de cette taxe. Le contre-projet du PS publié en septembre dernier projetait une augmentation à 6 %. C’est finalement ce doublement de la taxe qui a été adopté, le député Renaissance ayant accepté un tel taux en affirmant « je ne suis pas là pour rouvrir une guerre commerciale entre la France et les États-Unis », comme le rapporte Le Monde.

Roland Lescure a déclaré prendre « acte de la volonté du Parlement de renforcer la taxe sur les géants du numérique » tout en ajoutant qu’il aurait préféré que ce sujet soit traité « à l’échelle européenne et par la discussion internationale ».

Rappelons que si ces deux sources de financement ont obtenu une majorité à l’Assemblée nationale, elles ont peu de chances d’être acceptées par le Sénat à majorité de droite. Le texte global du budget, avec ces dispositions, pourrait ne même pas recueillir de majorité à l’Assemblée : certains députés Renaissance opposés notamment à l’impôt universel sur les multinationales pourraient refuser de le voter.

❌