La plataforma Character AI prohibirá el acceso al chat a los menores de 18 años de edad, una decisión que llega después de que se conociera una demanda contra la compañía por el suicidio de un adolescente de 14 años que se apegó emocionalmente a su chatbot.
La empresa dijo que promoverá que los usuarios más jóvenes usen herramientas alternativas como la creación de videos, historias y transmisiones con personajes de IA. La prohibición comenzará el 25 de noviembre.
La plataforma anunció que la prohibición comenzará el 25 de noviembre. Hasta entonces, limitará a dos horas por día el uso del chat a los menores de edad.

"Estos son pasos extraordinarios para nuestra compañía, y, en muchos aspectos, son más conservadores que los de nuestros pares", dijo Character AI en un comunicado. "Pero creemos que es lo que debemos hacer".
Character AI permite a los usuarios (muchos de ellos adolescentes) interactuar con personajes creados por IA como si fueran sus confidentes o novios.
Sewell Setzer III se disparó en febrero después de meses de intercambios íntimos con un chatbot inspirado en el personaje de Daenerys Targaryen de la serie Game of Thrones, según la demanda presentada por su madre, Megan Garcia, contra Character AI.
Lee también Sextorsión con IA cobra vida de menor en EU; crecen casos en todo el mundo
La compañía dijo que tomó esta decisión después de leer "informes recientes que plantean preguntas" de reguladores y expertos en seguridad sobre el impacto que tiene sobre los adolescentes la interacción con la IA.
Además de Setzer, este año se han registrado varios casos de suicidios presuntamente vinculados a la interacción con chatbots de IA, lo que llevó a OpenAI, creador de ChatGPT, y otras empresas a implementar medidas de protección de los usuarios.
ss