A. Hoskins : « L’IA ne se contente plus d’archiver le passé, elle en fabrique un nouveau »
Radicalisation de la mémoire
Plus de trente mémoriaux allemands ont alerté sur la prolifération d’« IA slop », ces fausses images générées par IA, représentant des victimes fictives de l’Holocauste. Next s’entretient avec Andrew Hoskins, spécialiste des liens entre mémoire, guerre et technologies.
Depuis l’été 2025, des fermes à contenu inondent les réseaux sociaux d’images générées par IA (ou slop) prétendant illustrer la Shoah. Le 13 janvier dernier, les sites mémoriaux de Bergen-Belsen, Buchenwald, Dachau et des dizaines d’autres institutions ont publié une lettre ouverte dénonçant un phénomène « en expansion » qui « déforme l’histoire par la trivialisation et la kitschification ».
Titulaire de la chaire en IA, mémoire et guerre à l’université d’Édimbourg, Andrew Hoskins étudie l’irruption de l’IA générative dans notre rapport au passé. Son article « Intelligence artificielle, une nouvelle réalité pour la mémoire », vient de paraître en version française dans l’ouvrage collectif Technomémoires, mémoire, souvenirs et technologies émergentes (PUQ, 2026). Sa théorie : l’IA générative produit un passé hybride, au-delà du consentement et du contrôle de ceux qui l’ont vécu. Entretien.
>> Plusieurs mémoriaux de l’Holocauste alertent contre la montée en puissance de contenus « entièrement fabriqués » ciblant la Shoah. Comment analysez-vous ce phénomène ?
Les fausses images de l’Holocauste représentent un cas particulièrement frappant. Le problème central est le suivant : comment pouvons-nous encore faire la différence entre ce qui est réel et ce qui ne l’est pas, entre ce qui est factuel et ce qui est inventé ?
Ces « fakes » sont une forme de mémoire hybride homme-machine, fondamentalement perturbatrice. Ici, nous perdons l’humain à deux niveaux. Premièrement, notre capacité à reconnaître quelque chose comme réel, authentique ou véritablement humain est diminuée. Ensuite, à travers nos interactions avec de fausses images, des avatars ou des deadbots produits par l’IA, nous générons un nouveau type de mémoire, qui n’est pas entièrement humaine.
À mesure que ces couches d’interaction homme-machine s’accumulent, il devient de plus en plus difficile de distinguer si un contenu est d’origine humaine et d’en identifier l’auteur.
« Les archives sont empoisonnées, car elles ne sont plus contenues »
>> Vous parlez d’un passé rendu toxique par l’IA…
Il s’agit d’une intoxication du passé, car nous ne comprenons pas l’IA. J’appelle cela une « mémoire boîte noire » [black box memory, ndlr] : on ne sait pas ce qui a été injecté dans les modèles de transformeurs qui nous permettent d’interroger et d’extraire de l’information sur le passé. Comme nous avons si peu de compréhension du fonctionnement de ce processus, il devient facile de le manipuler, de transformer certains aspects du passé en armes afin qu’ils soient intégrés dans ce qui est régulièrement suggéré dans les modèles d’IA actuels. Il s’agit d’une forme d’effondrement du modèle : les archives sont empoisonnées, car elles ne sont plus contenues.
>> Comment les institutions mémorielles peuvent-elles faire face ?
C’est une vraie lutte pour elles. Elles sont tiraillées et craignent de perdre le contrôle du récit. D’un côté, n’importe qui peut créer très rapidement une fausse image, un avatar très réaliste d’un survivant ou d’un défunt et lui faire dire toutes sortes de choses. De l’autre, ces institutions ne travaillent pas à ce rythme. Ce sont des bureaucraties, des gouvernements, des réglementations. Vous avez d’un côté l’accélération, de l’autre la stase, la peur, l’hésitation. Et elles sont poussées, lentement mais sûrement, à adopter la technologie, parce que si elles ne le font pas, quelqu’un d’autre le fera.
>> D’autant plus que l’IA générative arrive à un « moment » particulièrement complexe pour la transmission des grands conflits du XXe siècle. La génération des enfants et préadolescents qui ont survécu à l’Holocauste est en train de disparaître. Idem pour les Hibakusha, victimes des bombardements atomiques d’Hiroshima et de Nagasaki…
Absolument. Les institutions mémorielles explorent de nombreuses pistes. L’exemple japonais est particulièrement éclairant : les Hibakusha forment des témoins pendant deux ans pour qu’ils incarnent leur témoignage. Ces « témoins relais » sont très rigoureusement formés par les musées. Ils passent un test : l’Hibakusha original doit confirmer que le conteur peut parler avec des détails précis, fidèles à son expérience.
« Radicalisation de la mémoire »
L’objectif est de sécuriser le récit de paix, de transmettre l’horreur pour que les gens réfléchissent à deux fois aux risques nucléaires. Mais certains de ces conteurs deviennent incontrôlables. Ils prennent un statut de célébrité et commencent à dire des choses fausses. Si, malgré un dispositif très élaboré, ces institutions perdent le contrôle du récit, quel espoir reste-t-il face à l’arrivée de l’IA générative, non régulée et illimitée dans sa capacité à produire des bots hyperréalistes de survivants ?
>> Jusqu’à présent, il y avait consensus sur le fait que « faire mémoire » consistait à lutter contre l’oubli. Avec l’arrivée de l’IA générative, vous affirmez que nous avons besoin d’une « nouvelle forme d’oubli » pour garder le contrôle. C’est assez contre-intuitif…
Oui… Mais d’une certaine manière, l’oubli humain est devenu impossible. Nous sommes constamment enregistrés, dupliqués. Il y a toutes sortes de nouvelles formes hybrides de mémoire, entre machine et humain. Prenez les compagnons IA : vous discutez et devenez intimes avec eux. Ce faisant, vous répliquez des versions de vous-même dans le monde. Et nous perdons le contrôle de l’oubli, parce que ces versions pourraient devenir incontrôlables, dire des choses qu’on ne voulait pas qu’elles disent, que nous soyons vivants ou morts. Cette prolifération stupéfiante de versions de nous-mêmes, ce nouvel ensemble de relations avec la technologie qui produit des mémoires hybrides homme-machine, c’est une perte de contrôle sur notre moi autobiographique.
>> Cette perte de contrôle a-t-elle des conséquences au-delà de l’individu ? Sur notre relation collective au passé ?
C’est ce que j’appelle la radicalisation de la mémoire. Le passé nous offrait autrefois certitude et stabilité comme guide dans le présent. On pouvait ne pas l’aimer, mais il était terminé. On pouvait tenter d’en tirer des leçons, avancer, construire un consensus. Or l’IA déconnecte le passé humain du présent. Et ce n’est pas seulement géopolitique, culturel, politique : c’est aussi très personnel. Pensez aux deadbots, au deuil, à cette tentation constante de recréer et de parler aux gens que nous avons perdus… Que se passe-t-il si vous pouvez vivre constamment dans un état qui révise mais aussi recrée le passé ? Car c’est ce que fait cette technologie. L’IA ne se contente pas d’archiver le passé. Elle en fabrique un nouveau. Un passé qui n’a jamais existé.
>> Malgré tout cela, pensez-vous qu’on puisse encore fabriquer de la mémoire collective ? Ou est-ce devenu obsolète ?
Ce qu’est la mémoire et ce qu’elle produit est complètement transformé. Pensez à ce sur quoi reposera son avenir : tout ce qui a été enregistré, collecté, documenté au cours des quinze dernières années. Beaucoup de tout cela se trouve dans des archives de réseaux sociaux, dans d’immenses réseaux numériques.
Pour être plus positif : il y a une opportunité stupéfiante de comprendre le passé. Un potentiel fantastique pour comprendre l’histoire de la guerre, de la géopolitique, des décisions politiques ou militaires. Mais ce potentiel est en partie perdu. Parce que tout cela est manipulé, instrumentalisé, radicalisé, plutôt que mis au service de la connaissance. On assiste donc une nouvelle bataille autour de la nature et des usages du passé. C’est à la fois une bataille sur nos traces numériques, mais aussi sur la génération par l’IA d’un passé qui n’a jamais existé.