Character.AI prohibirá que los menores chateen con la IA tras el suicidio de un adolescente
La plataforma Character.AI anunció el miércoles que prohibirá el acceso al chat a los menores de 18 años, una decisión que llega después de que se conociera una demanda contra la compañía por el suicidio de un adolescente de 14 años que se apegó emocionalmente a su chatbot.
La empresa dijo que promoverá que los usuarios más jóvenes usen herramientas alternativas como la creación de videos, historias y transmisiones con personajes de IA. La prohibición comenzará el 25 de noviembre.
La plataforma anunció que la prohibición comenzará el 25 de noviembre. Hasta entonces, limitará a dos horas por día el uso del chat a los menores de edad.
"Estos son pasos extraordinarios para nuestra compañía, y, en muchos aspectos, son más conservadores que los de nuestros pares", dijo Character.AI en un comunicado."Pero creemos que es lo que debemos hacer".
Character.AI permite a los usuarios --muchos de ellos adolescentes-- interactuar con personajes creados por IA como si fueran sus confidentes o novios.
Sewell Setzer III se disparó en febrero después de meses de intercambios íntimos con un chatbot inspirado en el personaje de Daenerys Targaryen de la serie Game of Thrones, según la demanda presentada por su madre, Megan Garcia, contra Character.AI.
La compañía dijo que tomó esta decisión después de leer "informes recientes que plantean preguntas" de reguladores y expertos en seguridad sobre el impacto que tiene sobre los adolescentes la interacción con la IA.
Además de Setzer, este año se han registrado varios casos de suicidios presuntamente vinculados a la interacción con chatbots de IA, lo que llevó a OpenAI, creador de ChatGPT, y otras empresas a implementar medidas de protección de los usuarios.
A.Riccobono--INP