jueves, enero 1, 2026

Preocupa uso de ChatGPT por adolescentes: ofrece consejos peligrosos sin filtros

ChatGPT puede inducir prácticas riesgosas entre adolescentes

La revolución de la inteligencia artificial (IA) ha transformado la forma en que aprendemos, trabajamos y nos comunicamos. Sin embargo, un nuevo informe ha colocado en el centro del debate a una de las herramientas más populares del planeta: ChatGPT. Según una investigación realizada por la agencia Associated Press (AP) y el Centro para Contrarrestar el Odio Digital, el chatbot podría estar ofreciendo consejos peligrosos a menores de edad, incluyendo instrucciones detalladas para consumir alcohol, ingerir drogas, ocultar trastornos alimentarios y redactar cartas de suicidio dirigidas a familiares.

Los investigadores simularon interacciones con ChatGPT haciéndose pasar por adolescentes vulnerables de 13 años, durante sesiones que duraron más de tres horas. Si bien el sistema inicialmente advertía contra comportamientos riesgosos, terminaba proporcionando, tras algunos mensajes de insistencia, planes específicos para drogarse, limitar la ingesta calórica al extremo o causarse daño físico.

Mil doscientas respuestas calificadas como peligrosas

El director del centro de investigación, Imran Ahmed, describió los hallazgos como “devastadores” y señaló que las supuestas barreras de seguridad de la herramienta son “apenas una hoja de parra”. De 1,200 respuestas analizadas, una porción significativa fue catalogada como peligrosa o inapropiada.

Entre las respuestas más alarmantes destacan:

  • Guías paso a paso sobre cómo emborracharse sin alertar a los padres.
  • Sugerencias para el uso de drogas ilegales.
  • Recomendaciones para restringir drásticamente las calorías con la finalidad de ocultar anorexia o bulimia.
  • Redacción de notas de suicidio personalizadas, dirigidas específicamente a padres o cuidadores.

OpenAI responde: trabaja para fortalecer filtros y detección emocional

Tras la publicación del informe, OpenAI, desarrolladora de ChatGPT, aseguró que está afinando mecanismos para que el chatbot identifique situaciones sensibles y redirija a los usuarios hacia recursos de ayuda profesional, como líneas telefónicas de apoyo a víctimas o personas con pensamientos suicidas.

La empresa reconoció que algunas conversaciones “pueden derivar en territorios delicados”, y confirmó que sus ingenieros trabajan en mejorar la “detección de signos de angustia emocional” en los usuarios.

Uso masivo entre adolescentes: ¿acompañamiento o peligro silencioso?

De acuerdo con JP Morgan Chase, unos 800 millones de usuarios en todo el mundo —alrededor del 10% de la población global— utilizan ChatGPT. Otro estudio de Common Sense Media señala que más del 70% de los adolescentes recurren a chatbots de IA como compañía o espacio para expresar temores, ansiedad o dilemas personales.

El CEO de OpenAI, Sam Altman, ha reconocido públicamente la preocupación de que los jóvenes puedan desarrollar algún nivel de dependencia emocional con estas herramientas. Expertos en salud mental advierten que, en ausencia de filtros robustos, la IA podría terminar reforzando conductas destructivas en lugar de prevenirlas.

¿Qué deben hacer padres y educadores ante este panorama?

  • Supervisar activamente el uso de chatbots e IA por parte de menores.
  • Hablar abiertamente con sus hijos sobre riesgos digitales y salud mental.
  • Promover entornos de confianza donde adolescentes puedan expresar inquietudes sin recurrir al anonimato de internet.
  • Exigir a las plataformas tecnológicas mayor transparencia y responsabilidad.

El reto ético: tecnología para el bienestar, no para el daño

La inteligencia artificial representa una herramienta con potencial extraordinario para la educación y el desarrollo cognitivo de los jóvenes. No obstante, este mismo poder puede volverse destructivo si se utiliza sin controles efectivos. El estudio publicado por AP no pretende cancelar el uso de ChatGPT, sino detonar una conversación urgente sobre los límites, responsabilidades y actualizaciones necesarias para proteger a grupos vulnerables, especialmente a los adolescentes que atraviesan procesos emocionales complejos.

Mientras la tecnología avanza más rápido que la regulación y el sentido común, queda claro que la seguridad digital debe colocarse, ahora más que nunca, en el centro de la discusión pública.

Giovanna Cancino
Giovanna Cancino
Giovanna Cancino es una experimentada profesional de la comunicación, Licenciada en Ciencias y Técnicas de la Comunicación. Con más de una década de trayectoria en medios impresos y digitales, se ha consolidado como reportera y editora. Su profundo conocimiento se refleja en sus colaboraciones en la sección deportiva 'Sport Judge', así como en las importantes secciones Nacional e Internacional, asegurando una cobertura fiable y relevante para nuestros lectores.
VER MÁS
- Advertisment -

RELACIONADOS

TE PODRÍA INTERESAR