IA, réseaux sociaux : la Californie encadre l’usage des technologies par les mineurs
From Big Tobacco to Big Tech

Le gouverneur de Californie vient de signer plusieurs lois visant à protéger les mineurs dans leurs interactions avec les équipements numériques, les réseaux sociaux et les chatbots conversationnels.
Le gouverneur de Californie Gavin Newsom a signé ce 13 octobre plusieurs textes visant à encadrer le recours aux nouvelles technologies par les mineurs.
Outre instituer l’obligation, pour les réseaux sociaux, de diffuser des messages de santé publique à destination des moins de 18 ans et d’obliger les fabricants d’appareils comme Apple ou Google à collecter l’âge des internautes lorsque les parents paramètrent des équipements pour leurs enfants, l’État adopte ainsi le premier texte des États-Unis qui oblige les opérateurs de robots conversationnels à déployer des protocoles de sécurité dans leurs compagnons d’IA.
Vérifications d’âge et messages d’alertes
Pour commencer, le gouverneur place la Californie dans les débats sur les vérifications d’âge des internautes, après que des textes très débattus ont été passés au Texas, dans l’Utah et en Louisiane.
En l’occurrence, le texte oblige désormais des fabricants d’équipements comme Apple ou Google à vérifier l’âge des internautes californiens lorsque leurs parents paramètrent les ordinateurs, smartphones ou tablettes. Les mineurs doivent ensuite être classés dans une des quatre catégories d’âge créées, puis rendre ces catégories accessibles pour les créateurs d’applications.
Le projet avait été soutenu par Google, Meta, OpenAI ou encore Snap, rapporte Politico, tandis que la Motion Picture Association, qui représente des studios cinématographiques dont Amazon et Netflix, s’y opposait.
Autre tactique, à destination des réseaux sociaux, cette fois : la Californie oblige désormais ces acteurs à diffuser des messages d’alerte sur les risques de santé mentale posés par ces outils. L’État du Minnesota a passé un texte similaire en juillet, inspiré – comme pour la Californie – des messages d’alertes imposés sur les paquets de cigarettes pour sensibiliser aux risques du tabagisme.
En pratique, les plateformes devront diffuser un message de 10 secondes chaque fois que l’enfant s’y connectera pour la première fois de la journée, puis un message de 30 seconde impossible à passer si l’enfant y reste connecté plus de trois heures. Au-delà de ces trois heures, le message de trente secondes devra à nouveau être diffusé, de manière inévitable, toutes les heures supplémentaires.
Le premier texte encadrant les relations aux chatbots conversationnels
Proposé en janvier, un autre projet de loi vise à encadrer l’usage de chatbots alimentés par IA générative. Il a gagné en importance dans le débat public local après la mort d’Adam Raine, qui s’est suicidé à l’âge de 16 ans, après de longues conversations sur le sujet avec ChatGPT. Le texte législatif a par ailleurs fait suite aux révélations sur les propos déclarés acceptables par Meta lorsque des enfants échangent avec ses outils génératifs. Dans le lot : des contenus jugés « sensuels » par les équipes de l’entreprise, de la désinformation médicale ou encore des propos racistes.
À partir du 1ᵉʳ janvier 2026, des sociétés comme Meta, Open AI, Character AI ou Replika devront donc intégrer diverses fonctionnalités parmi lesquelles des outils vérifications d’âges, des messages d’alertes relatifs à leurs robots, et des dispositifs rendant évident que toute interaction avec leurs machines sont générées de manière artificielle (plutôt que de laisser, par exemple, un robot produire du texte laissant croire qu’un professionnel de santé est en train de répondre).
Un nouveau texte prévoit par ailleurs des peines susceptibles de grimper jusqu’à 250 000 dollars pour toute personne qui tirerait profit de deepfakes, et oblige les sociétés concernées à mettre en place des protocoles de gestion du suicide et des auto-mutilations.
Plusieurs sociétés, dont OpenAI et Replika, ont déjà commencé à déployer des fonctionnalités allant du contrôle parental à divers outils de filtrage, précise TechCrunch.
À l’heure actuelle, plusieurs familles poursuivent des constructeurs de robots conversationnels pour les effets qu’ils ont eus sur leurs proches. C’est le cas de la famille Raine, mais aussi d’une famille du Colorado, qui attaque la start-up Character AI en justice après que sa fille s’est suicidée à l’âge de 13 ans. Là encore, l’enfant avait entretenu une série de conversations sexualisées et problématiques avec le robot compagnon.
Le texte californien vient s’ajouter à une autre loi, signée le 2 octobre par Gavin Newsom, et imposant diverses mesures de transparence aux constructeurs de modèles d’IA dits « de frontière ». Avec ces différentes mesures, l’État du sud se place en fer de lance de l’encadrement de l’intelligence artificielle aux États-Unis.