Un Prompt para Gobernar
El departamento DOGE de Elon Musk entró al National Endowment for the Humanities (NEH) con una misión clara: eliminar todo lo relacionado con DEI. Pero en lugar de análisis cuidadoso, usaron un prompt de ChatGPT de 120 caracteres.
Según The New York Times, el proceso fue así:
- Sacaron resúmenes cortos de proyectos de internet
- Los alimentaron a ChatGPT
- Usaron este prompt: “Does the following relate at all to D.E.I.? Respond factually in less than 120 characters. Begin with ‘Yes’ or ‘No.’”
Resultados Absurdos y Devastadores
Los resultados fueron tan amplios como bizarros:
- Proyectos de historia medieval marcados como “DEI”
- Investigaciones de filosofía clásica canceladas
- Estudios de literatura del Renacimiento eliminados
Todo porque una IA sin contexto decidió que “cualquier mención de diversidad humana = DEI”.
Por Qué Esto es Aterrador
No es que ChatGPT sea malo. Es que nadie debería tomar decisiones de gobierno con un prompt de 120 caracteres.
“En lugar de examinar de cerca los proyectos financiados, sacaron resúmenes cortos de internet y los alimentaron al chatbot de IA.”
El Problema Real
- Sin contexto histórico: ChatGPT no entiende que la diversidad existía antes del 2020
- Sin matices: Un “sí” o “no” no captura la complejidad de la investigación académica
- Sin accountability: ¿Quién es responsable cuando una IA destruye décadas de investigación?
Implicaciones para México y LATAM
Si piensas que esto no te afecta, considera:
- Precedente peligroso: Si funciona en EE.UU., otros gobiernos lo copiarán
- Becas internacionales: Muchos investigadores mexicanos dependen de grants de NEH
- Modelo exportable: La “eficiencia” de DOGE se vende como innovación
La IA No Debería Gobernar
ChatGPT es una herramienta. Poderosa, sí. Pero una herramienta que amplifica los sesgos de quien la usa.
Cuando el sesgo es “eliminar todo lo que suene a diversidad”, el resultado es la destrucción de humanidades, historia y cultura.
El problema no es la IA. Es quién la controla.
¿Tu organización usa IA para decisiones importantes? Asegúrate de tener supervisión humana. En KÖD implementamos flujos de IA responsables.


