La Californie a franchi une étape historique en promulguant le 13 octobre 2025 une législation pionnière pour encadrer l’usage des agents conversationnels basés sur l’intelligence artificielle (IA). Cette initiative fait suite à plusieurs cas tragiques de suicides d’adolescents ayant développé des relations intimes avec ces outils.
La loi SB243 impose plusieurs mesures : vérification de l’âge des utilisateurs, affichage régulier de messages rappelant qu’ils interagissent avec une machine, et mise en place de protocoles de prévention du suicide. Elle cible notamment les chatbots conçus comme compagnons ou confidents, tels que ceux développés par Replika ou Character AI.
Le gouverneur Gavin Newsom a souligné la nécessité de protéger les jeunes tout en maintenant un environnement favorable à l’innovation. Les entreprises doivent rappeler aux mineurs toutes les trois heures qu’ils dialoguent avec une IA, détecter les idées suicidaires et transmettre des statistiques aux autorités.
Cette loi californienne intervient alors que les États-Unis ne disposent pas encore de règles fédérales claires pour gérer les risques liés à l’IA, plaçant l’État en position de précurseur dans la régulation de ces technologies.




