Les jouets boostés à l’IA peuvent interagir de manière inappropriée avec les enfants
Joyeux NoAIl !
Les jouets intégrant de l’IA générative arrivent sous les sapins. Une association américaine a testé plusieurs modèles, disponibles aux USA et en Europe. Certains robots peuvent donner des informations risquées et d’autres peuvent parler de sexe comme on ne le ferait pas à un enfant. Leur parole peut aussi pousser à une relation trop addictive et toxique au jouet.
En ces temps de fêtes et de cadeaux qui vont arriver aux pieds des sapins, la peluche qui « répond aux questions encyclopédiques » des enfants, leur « pose des questions sur des sujets scolaires », les « réconforte » et leur tient « simplement compagnie », peut être attrayante. On peut en trouver à foison sur le marché du jouet.
Mattel a annoncé en juin dernier un partenariat avec OpenAI pour de l’IA dans les jouets pour enfants. La MIT Technology Review affirmait que la marque de jouets prévoyait « d’intégrer l’IA conversationnelle à des marques telles que Barbie et Hot Wheels ». « Les premiers produits devraient être annoncés dans le courant de l’année », ajoutait le média. Rappelons que Mattel est aussi derrière la marque de jouets Fisher-Price depuis 1993.
Nous n’avons pas trouvé d’annonce dans ce sens, même si une « piste de course intelligent AI » est listée sur Amazon, mais « actuellement indisponible » :

Mais ça n’empêche pas d’autres fabricants d’incorporer de l’IA générative dans leurs jouets au risque de quelques surprises. L’association de protection des consommateurs étatsunienne PIRG vient de publier un rapport [PDF] après avoir acheté et testé plusieurs jouets, dont certains sont aussi disponibles à la livraison en France.
Pas nouveau, mais des changements majeurs avec l’IA générative
Dans ce document, les chercheurs de l’association rappellent que « les jouets intelligents conversationnels ne sont pas une nouveauté » et donnent l’exemple d’une Barbie lancée en 2015 par Mattel.