Imagine que busca en internet una respuesta rápida sobre un síntoma y un chatbot de inteligencia artificial le ofrece una explicación convincente… pero completamente inventada. Eso fue exactamente lo que descubrieron investigadores del Sistema de Salud Mount Sinai en un reciente estudio publicado en Communications Medicine.
Para poner a prueba a seis chatbots ampliamente utilizados, el equipo inventó enfermedades y términos médicos inexistentes como el “síndrome de Casper-Lew” o la “enfermedad de Helkand”. El resultado fue inquietante: las herramientas no solo aceptaron esos datos falsos como reales, sino que elaboraron descripciones detalladas y aparentemente confiables.
Cómo se realizó la prueba
El estudio diseñó 300 consultas médicas, cada una con un detalle ficticio: desde síntomas inventados como “signo espiral cardíaco” hasta pruebas de laboratorio inexistentes como la “neurostatina sérica”.
Los resultados fueron claros: las tasas de “alucinaciones” —información falsa presentada como cierta— oscilaron entre el 50% y el 82%. Incluso un solo término inventado bastó para provocar respuestas extensas basadas totalmente en ficción médica.
El papel de una advertencia simple
La parte positiva es que los investigadores encontraron una solución parcial. En una segunda ronda, añadieron a las consultas una simple advertencia: recordar al chatbot que la información podría no ser precisa y que solo debía usar datos clínicamente validados.
Ese cambio redujo las alucinaciones a cerca del 45%. En el caso de ChatGPT-4o, las respuestas incorrectas cayeron de un 50% a menos del 25%.
Por qué esto importa en la medicina
El Dr. Girish Nadkarni, director de IA del Sistema de Salud Mount Sinai, señaló que este hallazgo expone una vulnerabilidad crítica en el uso de IA en entornos médicos: una frase falsa puede desencadenar una respuesta “segura” pero completamente incorrecta.
No se trata de abandonar la inteligencia artificial en la medicina, sino de perfeccionarla. La clave, según los investigadores, está en diseñar modelos capaces de detectar datos dudosos, responder con cautela y mantener la supervisión humana en el centro de la atención médica.
Riesgos y oportunidades de la IA en salud
La IA médica tiene un potencial enorme: diagnósticos más rápidos, análisis de grandes volúmenes de datos y apoyo a profesionales de la salud. Sin embargo, este estudio demuestra que, sin salvaguardas, también puede ser una fuente de errores peligrosos.
Una de las lecciones más valiosas es que la seguridad de la IA no depende solo de sus algoritmos, sino también de cómo los usuarios formulan las consultas y de las advertencias integradas en el sistema.
El camino hacia una IA más segura
El equipo de Mount Sinai planea ahora pruebas con registros reales de pacientes y medidas de seguridad más avanzadas. Su objetivo es desarrollar herramientas que reconozcan automáticamente términos o diagnósticos inventados y los marquen antes de generar una respuesta.
Si bien aún queda camino por recorrer, el estudio demuestra que con ajustes simples, la inteligencia artificial puede ser más confiable. El reto está en equilibrar su capacidad de respuesta con la precisión y la seguridad clínica.


TE PODRÍA INTERESAR