domingo, marzo 15, 2026

Doctor ChatGPT: estudio revela fallos al detectar emergencias

Un estudio científico advierte que el doctor ChatGPT puede subestimar emergencias médicas, lo que reabre el debate sobre el uso de inteligencia artificial en salud.

El concepto de doctor ChatGPT se ha vuelto cada vez más común entre usuarios que buscan respuestas rápidas sobre síntomas, enfermedades o dudas médicas desde su teléfono o computadora. La inteligencia artificial se ha convertido en una herramienta accesible que promete orientación inmediata, aunque un reciente estudio científico ha encendido el debate sobre sus límites.

La investigación publicada en la revista científica Nature Medicine señala que el llamado doctor ChatGPT puede subestimar más de la mitad de las emergencias médicas cuando se le presentan ciertos escenarios clínicos. El hallazgo abre una conversación importante sobre el papel de la inteligencia artificial en el ámbito sanitario y la forma en que los usuarios deben utilizar estas herramientas.

El estudio fue liderado por el médico Ashwin Ramaswamy, especialista del Mount Sinai Hospital de Nueva York, quien junto con su equipo analizó cómo responde el sistema cuando se le presentan síntomas potencialmente graves.

Qué descubrió el estudio sobre el doctor ChatGPT

Para evaluar el desempeño del sistema, los investigadores diseñaron 60 escenarios clínicos simulados que reflejaban situaciones reales que podrían llevar a un paciente a acudir a urgencias o a consultar a un médico.

Cada uno de esos casos fue introducido en el sistema de salud del chatbot desarrollado por OpenAI, y las respuestas obtenidas se compararon posteriormente con las recomendaciones que daría un médico utilizando los protocolos habituales de evaluación de pacientes.

Los resultados mostraron que el sistema subestimó el 52% de las emergencias médicas reales. Entre los casos analizados se encontraban afecciones graves como la cetoacidosis diabética o situaciones de insuficiencia respiratoria inminente, problemas en los que un retraso en la atención médica puede representar un riesgo significativo para el paciente.

En algunos ejemplos evaluados por los investigadores, el sistema sugería esperar uno o dos días para acudir a consulta si los síntomas persistían. Según los especialistas, en situaciones de este tipo la recomendación correcta habría sido acudir inmediatamente a un servicio de urgencias.

Doctor ChatGPT
Doctor ChatGPT

Cuando la inteligencia artificial reconoce el peligro, pero falla

Uno de los aspectos que más llamó la atención de los investigadores es que el sistema, en muchos casos, sí identificaba señales médicas preocupantes. Sin embargo, el análisis final terminaba minimizando la gravedad del problema.

Un ejemplo citado en la investigación describe un caso en el que el sistema detectó niveles elevados de dióxido de carbono en sangre, una señal temprana de posibles problemas respiratorios. A pesar de reconocer el indicador, el análisis posterior concluyó que no existían pruebas suficientes para considerar una insuficiencia respiratoria inmediata.

Para los especialistas, este tipo de contradicciones puede resultar confuso para los usuarios. Una persona que busca orientación médica en internet puede no tener las herramientas para evaluar si la recomendación generada por una inteligencia artificial es confiable.

El doctor ChatGPT también puede exagerar problemas menores

Los investigadores también encontraron otro tipo de error que puede tener consecuencias en el sistema de salud. En aproximadamente el 64,8% de los casos que no requerían atención urgente, la herramienta recomendaba acudir a consulta médica inmediata.

Este tipo de respuesta puede generar ansiedad innecesaria en los usuarios, además de aumentar la presión sobre hospitales y clínicas que ya operan con una alta demanda de pacientes.

Los expertos señalaron que el sistema presenta dificultades especialmente en los extremos del análisis médico, es decir, en situaciones donde es fundamental distinguir entre un problema leve y una emergencia real.

La precisión en ese punto es clave para los sistemas de triage o cribado médico, que son los procedimientos utilizados para determinar la prioridad de atención de los pacientes en servicios de urgencias.

Cómo utilizar la inteligencia artificial sin reemplazar al médico

Aunque los resultados del estudio han generado preocupación, los especialistas coinciden en que las herramientas basadas en inteligencia artificial pueden tener un papel útil cuando se utilizan de manera responsable.

El propio equipo investigador señala que la IA puede servir como una guía inicial para comprender información médica o para ayudar a los pacientes a formular preguntas antes de acudir a consulta.

Sin embargo, recalcan que estas herramientas no deben sustituir la evaluación realizada por un profesional de la salud. Los médicos cuentan con formación clínica, experiencia y acceso a pruebas diagnósticas que permiten evaluar de manera completa el estado de un paciente.

Además, en la vida real las personas describen sus síntomas de forma imperfecta o incompleta, lo que puede dificultar todavía más el análisis de una inteligencia artificial.

Casos reales que muestran los límites de la IA médica

El debate sobre el uso del doctor ChatGPT en salud también ha crecido debido a algunos casos documentados en estudios médicos y reportes periodísticos.

En una investigación publicada en la revista Annals of Internal Medicine Clinical Cases se mencionó el caso de un paciente que sufrió una intoxicación después de seguir recomendaciones dietéticas generadas por una herramienta de inteligencia artificial.

También se ha reportado el caso de una persona que consultó a un chatbot sobre un dolor de garganta persistente. Tras recibir una respuesta que indicaba que los síntomas no parecían graves, el paciente tardó meses en acudir al médico, donde finalmente fue diagnosticado con cáncer de garganta.

Otro estudio académico publicado en ScienceDirect relató la experiencia de un hombre de 65 años que utilizó inteligencia artificial para interpretar sus síntomas neurológicos. El informe generado por la herramienta sugería una enfermedad grave, lo que provocó una fuerte ansiedad hasta que especialistas humanos revisaron el caso y descartaron el diagnóstico.

El doctor ChatGPT y el futuro de la medicina digital

A pesar de los desafíos identificados, la inteligencia artificial continúa expandiéndose en el ámbito sanitario. Herramientas como el doctor ChatGPT muestran el enorme potencial de la tecnología para facilitar el acceso a información médica.

Sin embargo, los especialistas insisten en que la tecnología debe utilizarse como apoyo y no como sustituto del diagnóstico profesional. La medicina es una disciplina compleja que requiere análisis clínico, interpretación de pruebas y comprensión del contexto del paciente.

Por esa razón, mientras la inteligencia artificial continúa evolucionando, los expertos recomiendan utilizar el doctor ChatGPT como una herramienta informativa que puede orientar dudas generales, pero nunca como reemplazo de la consulta con un médico.

Owen Michell
Owen Michell
Owen Michell es nuestro editor especializado en noticias digitales, con un profundo conocimiento en identificar tendencias y desarrollar contenido de consulta. Su experiencia en el panorama digital le permite brindar información relevante y atractiva para nuestra audiencia. Su pericia en el ámbito de las noticias digitales contribuye a la autoridad y actualidad de nuestro sitio.
VER MÁS
- Advertisment -

RELACIONADOS

TE PODRÍA INTERESAR