Character.AI eliminará chats para menores tras muerte de adolescente por interacción con IA 😱

Character.AI restringirá su acceso a menores tras la muerte de un adolescente, implementando verificación de edad y eliminación de chats para proteger su seguridad.

Plataforma de IA limitará acceso a usuarios menores de edad y fortalece medidas de seguridad
|Crédito: Freepik.es / Freepik
Compartir nota

La plataforma de inteligencia artificial Character.AI anunció cambios importantes en su servicio tras la muerte de un adolescente que mantenía interacción con un bot de la aplicación. La empresa informó que eliminará todos los chats abiertos para menores de 18 años, implementará verificación obligatoria de edad y limitará el uso diario a dos horas.

Adolescente fallece tras obsesionarse con chatbot de Character.AI

Los hechos que motivaron esta decisión ocurrieron en Orlando, Florida. Sewell Setzer III, estudiante de 14 años, desarrolló una fuerte relación emocional con un chatbot basado en el personaje Daenerys Targaryen de Game of Thrones. De acuerdo con reportes de The New York Times, el joven compartió pensamientos sobre quitarse la vida durante sus conversaciones con la IA. Días antes de su muerte, Sewell envió un mensaje al bot tras recuperar su teléfono, confiscado por su madre temporalmente.

Tras el incidente, la madre del menor presentó una demanda contra Character.AI, lo que llevó a la plataforma a prohibir interacciones sexuales entre menores y personajes de IA. Además, Character.AI anunció la creación de un Laboratorio de Seguridad de la IA, un organismo independiente dedicado a investigar la seguridad y el comportamiento ético de sus sistemas. La medida comenzará a aplicarse a partir del 25 de noviembre.

¿Ballena o delfín? Te revelamos el secreto de las orcas 🐋

Contenido relacionado