Entrainement des IA sur les données des européens : noyb menace Meta de class action
noyb vs Meta, épisode 412 000

Pour l’association de Max Schrems, l’utilisation par Meta des données de ses utilisateurs européens pour entrainer ses IA n’est pas un intérêt légitime. noyb met l’entreprise en demeure de renoncer et menace d’une class action européenne.
Ce mercredi 14 mai, noyb a annoncé avoir envoyé une mise en demeure à Meta lui demandant d’arrêter l’entrainement de ses IA sur les données de ses utilisateurs européens.
Il y a tout juste un mois, l’entreprise de Mark Zuckerberg réactivait cet entrainement. Elle expliquait avoir fait quelques modifications dans sa façon de présenter la chose à ses utilisateurs ainsi que dans le formulaire (plus clair) pour refuser et considère qu’il lui est possible d’imposer par défaut le traitement de ces données.
Affirmant que son « approche initiale était conforme à [ses] obligations légales », elle s’appuyait toujours sur l’intérêt légitime comme base légale de cet entrainement. L’entreprise de réseaux sociaux n’estime donc pas avoir besoin de demander le consentement des utilisateurs européens pour utiliser leurs données qu’ils ont publiées sur Facebook, Instagram ou Threads dans le cadre d’entrainements de ses IA.
noyb menace Meta d’une action collective européenne
Pour Max Schrems, « ce combat porte essentiellement sur la question de savoir s’il faut demander le consentement des gens ou simplement prendre leurs données sans leur consentement ». En effet, l’association indique que si l’entreprise refuse de rentrer en discussion avec elle sur le sujet dans un délai d’une semaine, elle est prête à déposer une injonction, voire à porter l’affaire devant les tribunaux dans le cadre d’une action collective européenne.
« Nous évaluons actuellement nos options pour déposer des injonctions, mais il y a aussi l’option d’une action collective ultérieure pour des dommages non matériels », explique Max Schrems. Il ajoute que « si vous pensez aux plus de 400 millions d’utilisateurs européens de Meta qui pourraient tous demander des dommages et intérêts d’environ 500 euros, vous pouvez faire le calcul. Nous sommes très surpris que Meta prenne ce risque simplement pour éviter de demander le consentement des utilisateurs ».
Contraire au RGPD, selon noyb
Dans sa mise en demeure [PDF], l’association affirme qu’il n’y a pas d’intérêt légitime qui tient. Elle s’appuie notamment sur plusieurs décisions de la Cour de justice de l’Union européenne.
Par exemple, sur celle de 2023 qui a conclu que Meta ne pouvait pas s’appuyer sur l’intérêt légitime pour imposer à ses utilisateurs de la publicité comportementale. L’association estime qu’ « il semble illogique que les personnes concernées qui ont saisi leurs données personnelles entre 2004 et 2024 sur un réseau social (qu’elles n’utilisent peut-être même plus dans une large mesure) aient pu raisonnablement s’attendre à ce que leurs données soient utilisées pour la formation à l’IA, pas plus que pour la publicité – surtout si l’on tient compte du fait que les plateformes de Meta ont toujours été financées par la publicité, alors que les systèmes d’IA constituent une nouvelle forme de technologie de l’information inconnue de l’utilisateur moyen lorsqu’il a créé son compte auprès de Meta ».
Elle ajoute que « l’existence d’un intérêt légitime prévalant sur les droits, les libertés et les intérêts des personnes concernées est également très discutable lorsque l’on évalue l’entrainement de l’IA envisagé du point de vue des principes du traitement des données en vertu de l’article 5 du RGPD ». Cette partie du règlement européen concerne le traitement des données à caractère personnel.
Pour l’association, « si Meta était clair sur les conditions de l’entraînement (par exemple, l’anonymisation et la similarité), il est probable que les utilisateurs fourniraient leurs données ». Elle ajoute qu’ « il est toutefois totalement absurde d’affirmer que Meta a besoin des données personnelles de toutes les personnes qui ont utilisé Facebook ou Instagram au cours des 20 dernières années pour entraîner l’IA. La plupart des autres fournisseurs d’IA (comme OpenAI ou le français Mistral) n’ont aucun accès aux données des médias sociaux et surpassent toujours les systèmes d’IA de Meta ».
Pour Meta, noyb fait partie d’une « minorité bruyante »
Comme elle l’expliquait déjà le mois dernier, Meta a répondu à The Register qu’elle considérait que son approche suivait l’opinion rendue par le Comité Européen de la Protection des Données (CEPD) en décembre dernier. Celle-ci explique que, pour CEPD, il existe des façons légales d’entrainer les IA avec des données provenant des réseaux sociaux sans pour autant valider spécifiquement celle utilisée par Meta.
L’entreprise a ajouté : « les recours en série de noyb font partie d’une tentative d’une minorité bruyante de groupes activistes de retarder l’innovation en matière d’IA dans l’UE, ce qui nuit en fin de compte aux consommateurs et aux entreprises qui pourraient bénéficier de ces technologies de pointe ».