
Google et la startup Character.AI ont conclu des accords hors tribunaux pour mettre fin à des poursuites lancées par des familles accusant des robots conversationnels de nuire aux mineurs, y compris d'avoir contribué au suicide d'un adolescent.
Cette plateforme permet aux utilisateurs d'interagir avec des personnages de fiction.
La mort de Sewell Setzer Jr. a été la première d'une série de signalements de suicides liés à des robots conversationnels d'intelligence artificielle, qui se sont multipliés en 2025.
En conséquence, les entreprises développant des produits liés à l’IA générative, comme le pionnier OpenAI avec son agent ChatGPT, ont été placées sous pression en matière de sécurité et de protection des jeunes.
Sollicités par la presse, un porte-parole de Character.AI a refusé tout commentaire, tandis que Google n'a pas répondu dans l'immédiat.
L'agence américaine de protection des consommateurs, la FTC, a indiqué début septembre avoir ouvert une enquête sur les chatbots utilisés comme des compagnons d'intelligence artificielle générative.









