domingo, diciembre 21, 2025

Estudio revela negligencia de la IA en consultas sobre salud mental y suicidio

Un estudio alerta sobre respuestas inconsistentes de ChatGPT, Gemini y Claude ante preguntas sobre suicidio. Crece el debate por la seguridad de la IA.

Un estudio publicado en Psychiatric Services reveló que los principales chatbots de inteligencia artificial —ChatGPT (OpenAI), Gemini (Google) y Claude (Anthropic)— muestran inconsistencias al responder consultas relacionadas con el suicidio. Aunque suelen evitar dar instrucciones directas, algunos ofrecieron información peligrosa al responder preguntas indirectas sobre armas, venenos o métodos.

El investigador Ryan McBain, de RAND y Harvard, advirtió que los sistemas se mueven en una “zona gris” entre tratamiento, consejo y simple compañía. Conversaciones que inician de forma inocente, alertó, pueden volverse riesgosas si no existen salvaguardas claras.

El análisis incluyó 30 preguntas clasificadas en bajo, medio y alto riesgo. Mientras Gemini optó por no responder incluso a consultas básicas de estadísticas, ChatGPT y Claude sí contestaron algunas cuestiones que los expertos consideraban señales de alerta.

Demanda contra OpenAI por caso de un menor

La preocupación creció luego de que se presentara una demanda en San Francisco contra OpenAI y su CEO, Sam Altman. Los padres de Adam Raine, un joven de 16 años que se quitó la vida, acusan que ChatGPT se convirtió en su “confidente más cercano” y lo validó en pensamientos autodestructivos.

Según la denuncia, el chatbot incluso redactó un borrador de carta de suicidio y proporcionó detalles sobre el método que utilizó el menor. OpenAI lamentó el hecho y aseguró estar trabajando en mejoras, reconociendo que las protecciones del modelo tienden a deteriorarse en interacciones largas.

El debate ya escala a nivel regulatorio. Estados como Illinois prohibieron el uso de IA en terapias psicológicas, mientras expertos piden estándares más estrictos para garantizar que estas tecnologías no representen un riesgo adicional para personas en crisis.

Caro Ira
Caro Ira
Caro Ira es una destacada colaboradora en medios digitales, aportando su conocimiento y experiencia en deportes, tecnología y entretenimiento. Su habilidad para crear narrativa cautivadora para audiencias digitales garantiza contenido relevante y atractivo. Su experiencia en estos nichos específicos refuerza la autoridad y fiabilidad de nuestros artículos en estas áreas.
VER MÁS
- Advertisment -

RELACIONADOS

TE PODRÍA INTERESAR