El veredicto científico está aquí
Una investigación publicada en Nature Medicine por la Icahn School of Medicine del Mount Sinai revela que ChatGPT Health falla en el 52% de los casos de urgencia vital. El asistente de salud de OpenAI, lanzado en enero 2026, recomienda “consultar en 24-48 horas” cuando el paciente debería ir a urgencias inmediatamente.
Los números que preocupan
Los investigadores sometieron al sistema a 60 escenarios clínicos reales y compararon las recomendaciones con el consenso de médicos especialistas.
Resultados clave:
| Tipo de error | Porcentaje |
|---|---|
| Sub-triage en urgencias vitales | 52% |
| Sobre-triage en casos benignos | 65% |
| Fallos en detección de riesgo suicida | Variable |
El caso más perturbador
En un escenario de asma severa con signos de insuficiencia respiratoria, ChatGPT Health:
- ✅ Identificó correctamente los síntomas de alarma
- ❌ Concluyó que el paciente podía esperar
“La IA ve el peligro, pero lo desactiva en la misma frase por una alucinación algorítmica.” — Investigadores del Mount Sinai
El factor de influencia social
Uno de los hallazgos más inquietantes: cuando un familiar simulado minimizaba los síntomas, la IA era 12 veces más propensa a sub-evaluar la gravedad. No analiza objetivamente — imita el contexto social.
¿Por qué importa para México?
Con decenas de millones de usuarios diarios buscando respuestas médicas en ChatGPT:
- Riesgo directo: Personas con síntomas graves podrían no buscar atención
- Saturación inversa: Casos benignos enviados a urgencias innecesariamente
- Confianza ciega: Usuarios asumen que la IA “sabe más” que su intuición
La posición de OpenAI
OpenAI ha insistido en que ChatGPT Health incluye disclaimers que recomiendan consultar médicos reales. Sin embargo, la investigación demuestra que los disclaimers no compensan recomendaciones peligrosas.
Recomendaciones prácticas
- Nunca uses IA como única fuente para decisiones de salud urgentes
- Ante duda, siempre urgencias — mejor una visita innecesaria que ignorar algo grave
- Considera la IA como complemento, no reemplazo del criterio médico
La tecnología puede ayudar, pero en salud, el juicio humano sigue siendo insustituible.


