2 min de lectura

DOGE Usó ChatGPT para Destruir Becas de Humanidades: Así Funciona el Gobierno IA de Trump

El equipo de Elon Musk alimentó resúmenes de internet a ChatGPT con un prompt simple para decidir qué grants del NEH cancelar. Los resultados fueron devastadores y absurdos.

Un Prompt para Gobernar

El departamento DOGE de Elon Musk entró al National Endowment for the Humanities (NEH) con una misión clara: eliminar todo lo relacionado con DEI. Pero en lugar de análisis cuidadoso, usaron un prompt de ChatGPT de 120 caracteres.

Según The New York Times, el proceso fue así:

  1. Sacaron resúmenes cortos de proyectos de internet
  2. Los alimentaron a ChatGPT
  3. Usaron este prompt: “Does the following relate at all to D.E.I.? Respond factually in less than 120 characters. Begin with ‘Yes’ or ‘No.’”

Resultados Absurdos y Devastadores

Los resultados fueron tan amplios como bizarros:

  • Proyectos de historia medieval marcados como “DEI”
  • Investigaciones de filosofía clásica canceladas
  • Estudios de literatura del Renacimiento eliminados

Todo porque una IA sin contexto decidió que “cualquier mención de diversidad humana = DEI”.

Por Qué Esto es Aterrador

No es que ChatGPT sea malo. Es que nadie debería tomar decisiones de gobierno con un prompt de 120 caracteres.

“En lugar de examinar de cerca los proyectos financiados, sacaron resúmenes cortos de internet y los alimentaron al chatbot de IA.”

El Problema Real

  1. Sin contexto histórico: ChatGPT no entiende que la diversidad existía antes del 2020
  2. Sin matices: Un “sí” o “no” no captura la complejidad de la investigación académica
  3. Sin accountability: ¿Quién es responsable cuando una IA destruye décadas de investigación?

Implicaciones para México y LATAM

Si piensas que esto no te afecta, considera:

  • Precedente peligroso: Si funciona en EE.UU., otros gobiernos lo copiarán
  • Becas internacionales: Muchos investigadores mexicanos dependen de grants de NEH
  • Modelo exportable: La “eficiencia” de DOGE se vende como innovación

La IA No Debería Gobernar

ChatGPT es una herramienta. Poderosa, sí. Pero una herramienta que amplifica los sesgos de quien la usa.

Cuando el sesgo es “eliminar todo lo que suene a diversidad”, el resultado es la destrucción de humanidades, historia y cultura.

El problema no es la IA. Es quién la controla.


¿Tu organización usa IA para decisiones importantes? Asegúrate de tener supervisión humana. En KÖD implementamos flujos de IA responsables.

Avatar de Jorge Razo
Jorge Razo Director @ KÖD