Un expert judiciaire accusé d’utiliser une IA pour générer son rapport sur les deepfakes
Expertise hallucinée
Au Minnesota, un chercheur de l’université de Stanford appelé par la justice pour son expertise sur les deepfakes est accusé d’avoir utilisé une IA générative pour rédiger son expertise. Dans ce procès, une élue républicaine et un youtubeur remettent en question la loi locale contre les deepfakes en politique.
L’élue républicaine Mary Franson et le youtubeur conservateur Christopher Kohls (connu sous le pseudonyme de Mr Reagan) viennent d’attaquer en justice le dispositif légal récemment mis en place par le Minnesota, qui interdit l’utilisation des deepfakes pour influencer une élection. Selon leur plainte [PDF], cette loi violerait notamment la liberté d’expression permise par le premier amendement de la Constitution des États-Unis, et « créerait une plus dangereuse attaque contre la vérité, l’expression et les élections libres que la question qu’il tente de résoudre ».
Un expert sur la désinformation dans le numérique à la barre
Pour défendre sa loi, l’État du Minnesota a, entre autres, demandé l’expertise d’un chercheur en communication de l’Université de Stanford, Jeff Hancock, par ailleurs directeur de son Social Media Lab, et co-directeur de son Cyber Policy Center.
Si ce docteur en psychologie n’est pas un expert technique des deepfakes, il travaille sur la désinformation dans le numérique et ses effets sociaux et ses connaissances peuvent, a priori, être intéressantes pour discuter des effets des deepfakes sur une élection.
Jeff Hancock a donc rendu, le 1er novembre dernier, son expertise [PDF]. Il y explique, en s’appuyant sur le travail de ses collègues britanniques de l’Université de Loughborough, que « les deepfakes peuvent influencer de manière significative les convictions politiques en présentant de faux récits convaincants et difficiles à réfuter. Le réalisme visuel et auditif des deepfakes peut saper la confiance dans les sources médiatiques légitimes et les institutions politiques, entraînant la confusion et la polarisation du public ».
Une expertise à la bibliographie douteuse
Mais, comme l’a relevé le média local Minnesota Reformer, les avocats de Mary Franson et Christopher Kohls ont demandé que cette expertise soit récusée.
En effet, dans son texte, Jeff Hancock explique aussi que « la difficulté à identifier les deepfakes vient de la technologie sophistiquée utilisée pour créer des reproductions homogènes et réalistes de l’apparence et de la voix d’une personne. ».
Pour l’affirmer, il s’appuie sur une étude qui « a montré que même lorsque les individus sont informés de l’existence des deepfakes, ils peuvent avoir du mal à faire la distinction entre un contenu réel et un contenu manipulé. Cette difficulté est exacerbée sur les plateformes de médias sociaux, où les deepfakes peuvent se propager rapidement avant d’être identifiés et supprimés. ».
Sauf que cette étude ne semble pas exister. En effet, dans sa biographie [PDF], celle-ci est indiquée par la référence :
Hwang, J., Zhang, X., & Wang, Y. (2023). The Influence of Deepfake Videos on Political
Attitudes and Behavior. Journal of Information Technology & Politics, 20(2), 165 - 182.
https://doi.org/10.1080/19331681.2022.215123
Or, comme le font remarquer [PDF] les avocats de Mary Franson et Christopher Kohls, cette étude n’existe pas. Aucun article scientifique ne semble exister sous ce titre. Le DOI (url qui permet de référencer un article même si le site de l’éditeur change) ne renvoie à aucun article.
La revue scientifique Journal of Information Technology & Politics existe bel et bien, mais ne contient pas d’article sur le sujet dans les pages du numéro en question.
De potentielles « hallucinations » d’une IA générative
Pour ces avocats, « la citation présente les caractéristiques d’une « hallucination » de l’intelligence artificielle (IA), ce qui suggère qu’au moins cette citation a été générée par un grand modèle de langage comme ChatGPT ». Et, effectivement, comme nous l’avons déjà expliqué, les modèles de langage peuvent créer des citations de sources inexistantes, attributions de textes imaginaires à des personnes réelles et d’autres affirmations fausses.
Et ils en profitent pour remettre en cause toute l’expertise de Jeff Hancock : « les plaignants ne savent pas comment cette hallucination s’est retrouvée dans la déclaration de Hancock, mais elle remet en question l’ensemble du document ».
Il semble que cette référence n’est pas la seule qui figure dans la bibliographie de l’expert. En effet, Minnesota Reformer pointe aussi la citation suivante dont le DOI ne renvoie lui non plus vers aucune page et dont le titre n’existe nulle part :
De keersmaecker, J., & Roets, A. (2023). Deepfakes and the Illusion of Authenticity:
Cognitive Processes Behind Misinformation Acceptance. Computers in Human Behavior,
139, 107569. https://doi.org/10.1016/j.chb.2023.107569
Ni Jeff Hancock ni le Stanford Social Media Lab n’ont répondu au Minnesota Reformer. Le 16 octobre, la Cour a publié [PDF] un ordre accordant la demande d’exclusion de l’expertise de Jeff Hancock.