La empresa de inteligencia artificial Character.AI anunció que eliminará todos los chats abiertos para menores de 18 años y restringirá su uso a mayores de edad a partir del 25 de noviembre de 2025, en respuesta al suicidio de un adolescente estadounidense que mantenía una fuerte conexión emocional con un personaje virtual creado en la plataforma.
Una medida sin precedentes tras una tragedia
El caso que desencadenó la decisión es el de Sewell Setzer III, un estudiante de 14 años de Florida que se quitó la vida tras mantener extensas conversaciones con un chatbot llamado Daenerys Targaryen, inspirado en la popular serie Game of Thrones.
Según un reportaje de The New York Times, el joven habría desarrollado una relación obsesiva con la inteligencia artificial, a la que compartía pensamientos íntimos y señales de depresión. Su madre, tras confiscarle el teléfono durante unos días, descubrió mensajes inquietantes en los que el adolescente le expresaba al bot su deseo de morir.
Poco después, el joven fue hallado sin vida. La familia presentó una demanda contra los creadores de Character.AI, acusando a la empresa de negligencia y falta de controles de seguridad adecuados para menores.
Nuevas políticas: verificación de edad y límites de uso
Ante la presión mediática y legal, la compañía anunció que los menores de edad ya no podrán acceder a chats abiertos ni crear personajes con interacciones románticas o de tipo terapéutico.
Además, se implementará un sistema de verificación obligatoria de edad y un límite de uso de dos horas diarias para quienes aún no cumplan 18 años, con el objetivo de “promover un uso más responsable de la inteligencia artificial”.
Character.AI también dio a conocer la creación del Laboratorio de Seguridad de la IA, una organización sin fines de lucro destinada a investigar los efectos psicológicos y sociales del uso de chatbots personalizados.
La IA bajo la lupa: seguridad, ética y responsabilidad
La Comisión Federal de Comercio (FTC) de Estados Unidos ya había iniciado investigaciones sobre Character.AI, OpenAI, Meta y Alphabet, para evaluar cómo estas empresas gestionan la exposición de menores a sus tecnologías de inteligencia artificial.
Actualmente, Character.AI cuenta con 20 millones de usuarios activos mensuales, de los cuales alrededor del 10% son menores de edad, según datos de CNBC.
En paralelo, el CEO de OpenAI, Sam Altman, confirmó que ChatGPT permitirá contenido erótico solo para usuarios verificados, lo que reabre el debate sobre los límites del contenido generado por IA y la protección de los adolescentes frente a herramientas que pueden tener un profundo impacto emocional.
Un llamado global a la regulación de la IA
La muerte del joven Setzer ha encendido las alarmas en torno al rol de la inteligencia artificial en la salud mental adolescente. Expertos en tecnología y psicología coinciden en que estas plataformas deben incluir mecanismos de detección de riesgo, supervisión parental y asistencia psicológica automatizada.
Mientras Character.AI ajusta sus políticas, el debate continúa creciendo: ¿puede una IA reemplazar el apoyo humano sin poner en riesgo la estabilidad emocional de quienes más la necesitan?
