Eros vs Thanatos : Fight
Dans une publication sur X, Sam Altman a annoncé son intention d’assouplir certaines restrictions de ChatGPT, dans l’objectif affiché de rendre son chatbot plus amical. Pour les adultes « vérifiés », l’IA pourra également se faire plus romantique, voire érotique.
Ce 14 octobre, Sam Altman a lâché une petite bombe sur son compte X : d’ici quelques semaines, OpenAI lancera « une nouvelle version de ChatGPT qui permettra aux utilisateurs d’adopter une personnalité plus proche de ce que les utilisateurs apprécient dans 4o ».
Cette bascule se répercutera en deux temps. La première, qui commencera a priori début novembre, permettra au chatbot de se montrer plus amical si les utilisateurs en font la demande. Puis, en décembre, quand OpenAI déploiera davantage sa gestion de l’âge, elle autorisera « encore plus de contenu, comme l’érotisme pour les adultes vérifiés ».
« Traiter les utilisateurs adultes comme des adultes »
Pour le CEO d’OpenAI, ces décisions vont dans le sens d’un mantra au sein de l’entreprise, qui consiste à « traiter les utilisateurs adultes comme des adultes ».
Le début de sa publication fait référence aux travaux effectués par OpenAI sur la prise en charge des problèmes de santé mentale. La société considérant aujourd’hui que ces problèmes sont résolus, elle se dit consciente que les changements induits ont rendu ChatGPT « moins utile et agréable pour de nombreux utilisateurs ne souffrant pas de problèmes de santé mentale ». Cependant, « compte tenu de la gravité du problème », l’entreprise tenait « à bien faire les choses ».
Il n’est pas question de revenir sur les efforts mis en place pour les problèmes de santé mentale, mais de passer à l’étape suivante. OpenAI aurait reçu de nombreux commentaires sur un ChatGPT 5 plus neutre et austère, moins flagorneur certes, mais également moins agréable. Ce ne sont pas les seules critiques liées au lancement de ChatGPT 5.
En revanche, la mention directe de l’érotisme en tant que fonction pleine et entière dans le chatbot est une première. Alors que ChatGPT vient de franchir la barre des 800 millions d’utilisateurs actifs, plusieurs médias (dont TechCrunch) se posent la question d’une décision prise pour attirer les foules et compter sur les limitations du compte gratuit pour déclencher des actes d’achats.
Adultes « vérifiés » et érotisme
La partie érotique est annoncée comme réservée aux adultes dont l’âge aura été vérifié. Altman, dans un billet daté du 16 septembre, indiquait que l’une des priorités pour OpenAI était de séparer les individus majeurs de ceux qui ne le sont pas. La société annonçait alors qu’elle était en train de construire un système de prédiction de l’âge, fournissant une estimation selon la manière dont le service est utilisé. Ce qui sous-entendait qu’il fallait l’utiliser suffisamment longtemps pour que l’estimation soit donnée.
Cette annonce s’accompagnait de deux précisions. D’une part, en cas de doute, ChatGPT basculerait automatiquement en mode « moins de 18 ans », activant alors une série de protections. « Nous privilégions la sécurité avant la vie privée et la liberté des adolescents. Il s’agit d’une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d’une protection importante », affirmait Sam Altman. D’autre part, OpenAI laissera la possibilité d’envoyer une pièce d’identité. « Nous savons qu’il s’agit d’un compromis pour la vie privée des adultes, mais nous pensons qu’il s’agit d’un compromis qui en vaut la peine », ajoutait le CEO.
Dans le même billet, Altman évoquait également l’importance de protéger les conversations avec l’IA, car elles se faisaient de plus en plus personnelles. Il établissait un parallèle entre cette protection et les conversations très sensibles, citant en exemple les échanges avec un médecin ou un avocat : « Nous pensons que le même niveau de protection doit s’appliquer aux conversations avec l’IA ». Dans le même temps, il indiquait que des systèmes automatisés analyseraient les conversations pour surveiller « les abus graves potentiels et les risques les plus critiques ».
Contrairement à ces annonces, la publication de Sam Altman sur X ne donne pas plus de détails. Le flirt ou la bascule dans un échange érotique peuvent être des données très sensibles et révélatrices d’une personne. OpenAI se retrouvera en possession d’informations profondément personnelles pour lesquelles les protections devront être précisées.
Santé mentale : problème réglé ?
L’autre grand point d’interrogation dans l’annonce d’hier concerne la santé mentale. Selon Sam Altman, OpenAI a déployé des protections et largement corrigé le problème. Ces contrôles avaient été mis en place après la mort d’Adam Raine, un adolescent de 16 ans s’étant suicidé. Quand ses parents avaient fouillé son historique ChatGPT, ils avaient découvert que leur fils avait confié ses idées suicidaires. Ses parents ont déposé plainte contre OpenAI, estimant notamment que les garde-fous de cette époque étaient bien trop simples à contourner.
Pour autant, et malgré les affirmations de Sam Altman, OpenAI n’a fourni aucun élément concret sur le renforcement des protections, pas plus que sur une réduction drastique des problèmes liés à la santé mentale.
La société continue cependant de faire bonne figure. Dans un communiqué publié ce 14 octobre, elle annonce ainsi avoir constitué son « conseil d’experts sur le bien-être et l’IA ». Celui-ci est constitué de huit personnes parmi lesquelles un directeur de recherche à l’Hôpital pour enfants de Boston, la directrice scientifique de l’ONG everyone.AI, ou encore une spécialiste de l’informatique interactive. Le groupe est censé guider OpenAI sur des questions comme l’impact des réseaux sociaux sur les jeunes et leur santé mentale, les interactions entre l’IA et le développement de l’enfant, l’utilisation de la technologie pour prévenir et traiter des problèmes courants de santé mentale, ou encore la manière dont les réseaux et les jeux façonnent la motivation et le bien-être.
« Notre travail avec le conseil comprendra des contrôles réguliers sur notre approche et des réunions récurrentes pour explorer des sujets tels que la façon dont l’IA devrait se comporter dans des situations complexes ou sensibles et les types de garde-fous qui peuvent le mieux aider les personnes utilisant ChatGPT », déclare OpenAI.
« Le conseil nous aidera également à réfléchir à la manière dont ChatGPT peut avoir un impact positif sur la vie des gens et contribuer à leur bien-être. Certaines de nos discussions initiales ont porté sur ce qui constitue le bien-être et sur la manière dont ChatGPT pourrait donner du pouvoir aux gens dans tous les aspects de leur vie », précise l’entreprise.
Elle ajoute qu’elle travaille également avec un groupe « multidisciplinaire de cliniciens et de chercheurs en santé mentale » pour tester les réactions de ChatGPT « dans des situations réelles ». « Ce travail couvre la psychiatrie, la psychologie, la pédiatrie et l’intervention en cas de crise », indique OpenAI.