Les contenus générés par IA devront être tatoués, sauf s’ils sont vérifiés par un humain
It's not a bug, it's AI feature
L’article 50 de l’AI Act oblige les fournisseurs et exploitants de contenus (textes, images, sons, vidéos) synthétiques générés par IA à les marquer comme tels, de façon indélébile et « de manière claire et identifiable » au premier coup d’œil, afin de lutter contre la désinformation. Dans une consultation, ouverte jusqu’au 3 juin, la Commission européenne propose cela dit que les contenus générés par IA ayant « fait l’objet d’une vérification humaine ou d’un contrôle éditorial » soient exemptés de cette obligation de transparence.
La Commission européenne vient de lancer une consultation sur son projet de lignes directrices concernant les obligations en matière de transparence du règlement sur l’IA (AI Act), ouverte jusqu’au 3 juin.
« Nous souhaitons réduire les risques d’usurpation d’identité et de tromperie », résume sur LinkedIn Lucilla Sioli, directrice du bureau IA de la direction générale des réseaux de communication, du contenu et des technologies (DG Connect) de la Commission :
« Le projet de lignes directrices clarifiera la portée des obligations de transparence prévues à l’article 50 de la loi sur l’IA et sera complété par un code de bonnes pratiques. Ce code est rédigé par des experts indépendants et devrait être finalisé début juin. »
L’objectif est de permettre aux personnes physiques de distinguer les contenus (audio et donc aussi musicaux, images, textes et vidéos, y compris en réalité virtuelle ou « augmentée ») générés ou modifiés par IA (y compris agentique) des autres contenus (« par exemple, ceux créés par des humains ») et d’en vérifier l’origine.
Sont également concernés les contenus mixés avec du contenu généré par des humains, les jumeaux numériques, les contenus générés par IA (GenAI) « tels que ceux qui génèrent ou manipulent des images médicales ou qui produisent des évaluations des résultats d’apprentissage aboutissant à des décisions ou des recommandations sous forme de texte », ainsi que les systèmes d’IA agentique interagissant avec des environnements physiques ou virtuels, « pour autant qu’ils génèrent des contenus audio, visuels, vidéo ou textuels synthétiques ».
Les fournisseurs et déployeurs d’IA devront dès lors informer les utilisateurs lorsqu’ils interagissent avec des « systèmes interactifs synthétiques » ou consultent des contenus générés ou manipulés par l’IA, « à moins que cette utilisation ne soit liée à une activité purement personnelle et non professionnelle ».
L’interprétation de cette exception exclut cela dit explicitement les personnes qui agiraient à des fins criminelles, ainsi que les deepfakes et contenus « politiques » générés par IA afin d’ « influencer le débat public sur des questions d’intérêt général » :
« Cette exclusion ne devrait donc pas s’étendre aux activités criminelles, car celles-ci ne peuvent être considérées comme purement personnelles, même si aucun avantage économique n’est recherché ou obtenu. De même, un « deepfake » généré par l’IA ou manipulé, rendu public par une personne et susceptible d’influencer le débat public sur des questions d’intérêt général (par exemple en raison de son contenu politique ou économique), ne devrait pas non plus être considéré comme une activité purement personnelle et non professionnelle. »
Un individu recourant à l’IA pour faire des deepfakes des membres de sa famille pour en faire des cartes de vœux à Noël qu’il envoie à ses proches ne serait dès lors pas concerné. A contrario, les deepfakes générés pour critiquer publiquement des décisions de responsables politiques devront être labellisés comme synthétiques et/ou générés par IA.
Dans les deux cas, le générateur de contenu IA devra de toute façon les avoir tatoués de façon à ce que les détecteurs automatisés de contenus générés par IA puissent les identifier comme tels.
L’AI Act valide in fine l’extension GenAI que Next a développé
Cette obligation de transparence vise, in fine, à lutter contre « les risques de désinformation et de manipulation à grande échelle, de fraude, d’usurpation d’identité et de tromperie des consommateurs », « contribuant ainsi à renforcer l’intégrité et la confiance dans l’écosystème de l’information ».
Les contenus devront ainsi être tatoués au moment de leur création, de façon « indélébile », nous explique Patrick Bas, afin de pouvoir être identifiables comme étant synthétiques, quand bien même leurs métadonnées auraient été altérées. Directeur de recherche et une des deux médailles d’argent du CNRS 2026, ce spécialiste des tatouages numériques invisibles fait partie des quelques chercheurs français membres des deux groupes de travail ayant contribué à la rédaction du document.
Il évoque les deux principales techniques qui devraient coexister : la signature numérique dans les métadonnées (mais qui peuvent être effacées, altérées ou modifiées) et le watermarking/filigrane, qu’il qualifie donc de « tatouage », quand bien même il serait « invisible », parce qu’il ne peut pas être enlevé, même via une capture d’écran ou si le contenu est imprimé puis rescanné.
Les éditeurs et exploitants devront de leur côté informer les utilisateurs lorsqu’ils sont exposés à des deepfakes, ainsi qu’à des publications générées par l’IA « portant sur des questions d’intérêt public », sous réserve de quelques exceptions.
Le considérant 14 du document valide par ailleurs l’extension GenAI que Next a développée afin d’alerter ses utilisateurs lorsqu’ils consultent un des 13 500 sites d’infos dont les articles, d’après nos constatations, sont « en tout ou partie générés par IA » :
« Étant donné que la préservation de la confiance et de l’intégrité de l’écosystème de l’information relève d’une responsabilité partagée, les autres acteurs, agissant dans le cadre de leurs activités professionnelles et diffusant des contenus tout au long de la chaîne de valeur (même s’ils ne sont pas directement concernés par l’article 50 de la loi sur l’IA), sont également encouragés à prendre les mesures appropriées afin que les personnes physiques exposées à ces contenus soient effectivement informées de leur origine artificielle ou manipulée. »












