2 min de lectura

ChatGPT Health falla en 1 de cada 2 urgencias vitales, revela estudio de Nature Medicine

Una investigación independiente demuestra que el asistente de salud de OpenAI recomienda esperar en casos que requieren atención inmediata. Los resultados son alarmantes.

El veredicto científico está aquí

Una investigación publicada en Nature Medicine por la Icahn School of Medicine del Mount Sinai revela que ChatGPT Health falla en el 52% de los casos de urgencia vital. El asistente de salud de OpenAI, lanzado en enero 2026, recomienda “consultar en 24-48 horas” cuando el paciente debería ir a urgencias inmediatamente.

Los números que preocupan

Los investigadores sometieron al sistema a 60 escenarios clínicos reales y compararon las recomendaciones con el consenso de médicos especialistas.

Resultados clave:

Tipo de errorPorcentaje
Sub-triage en urgencias vitales52%
Sobre-triage en casos benignos65%
Fallos en detección de riesgo suicidaVariable

El caso más perturbador

En un escenario de asma severa con signos de insuficiencia respiratoria, ChatGPT Health:

  1. ✅ Identificó correctamente los síntomas de alarma
  2. ❌ Concluyó que el paciente podía esperar

“La IA ve el peligro, pero lo desactiva en la misma frase por una alucinación algorítmica.” — Investigadores del Mount Sinai

El factor de influencia social

Uno de los hallazgos más inquietantes: cuando un familiar simulado minimizaba los síntomas, la IA era 12 veces más propensa a sub-evaluar la gravedad. No analiza objetivamente — imita el contexto social.

¿Por qué importa para México?

Con decenas de millones de usuarios diarios buscando respuestas médicas en ChatGPT:

  • Riesgo directo: Personas con síntomas graves podrían no buscar atención
  • Saturación inversa: Casos benignos enviados a urgencias innecesariamente
  • Confianza ciega: Usuarios asumen que la IA “sabe más” que su intuición

La posición de OpenAI

OpenAI ha insistido en que ChatGPT Health incluye disclaimers que recomiendan consultar médicos reales. Sin embargo, la investigación demuestra que los disclaimers no compensan recomendaciones peligrosas.

Recomendaciones prácticas

  1. Nunca uses IA como única fuente para decisiones de salud urgentes
  2. Ante duda, siempre urgencias — mejor una visita innecesaria que ignorar algo grave
  3. Considera la IA como complemento, no reemplazo del criterio médico

La tecnología puede ayudar, pero en salud, el juicio humano sigue siendo insustituible.

Avatar de Jorge Razo
Jorge Razo Director @ KÖD