3 min de lectura

Policía del Reino Unido Tomó Decisiones Basadas en un Partido de Fútbol que Copilot Inventó

Un comité del Parlamento británico descubre que la Policía de West Midlands usó información falsa generada por Microsoft Copilot para tomar decisiones operativas reales.

Cuando la IA Inventa Realidades

La Policía de West Midlands del Reino Unido acaba de ganarse una “tarjeta roja” del Parlamento británico: tomaron decisiones operativas basadas en información que Microsoft Copilot simplemente inventó, incluyendo un partido de fútbol que nunca existió.

El Incidente

Según el reporte del comité parlamentario:

  • Un oficial usó Copilot para obtener contexto sobre eventos en la zona
  • El sistema generó información sobre un partido de fútbol que supuestamente afectaría el tráfico y la seguridad
  • El partido nunca fue programado ni existió
  • Las decisiones operativas se tomaron basándose en esta información falsa

Por Qué Esto es Aterrador

No estamos hablando de un chatbot equivocándose sobre trivia. Esto es:

  • Una institución pública tomando decisiones basadas en IA
  • Asignación de recursos (personal, vehículos) basada en ficción
  • Precedente peligroso para otras instituciones

El Problema de las Alucinaciones

Los LLMs como los que alimentan a Copilot tienen un problema conocido: inventan información con total confianza. Esto se llama “alucinación” y ocurre porque:

  1. El modelo genera texto estadísticamente probable
  2. No tiene verificación contra la realidad
  3. Presenta todo con el mismo nivel de certeza

Lecciones para Empresas Mexicanas

Si tu empresa usa o planea usar IA en operaciones críticas:

1. Nunca Confíes Ciegamente

La IA debe ser una herramienta de apoyo, no el tomador de decisiones final.

2. Verifica Información Crítica

Cualquier dato que afecte decisiones importantes debe verificarse contra fuentes primarias.

3. Documenta el Uso de IA

Si algo sale mal, necesitas saber qué decisiones fueron influenciadas por IA.

4. Entrena a tu Equipo

Todos los que usen IA deben entender sus limitaciones.

El Contexto Más Amplio

Este no es un caso aislado de mal uso de IA en gobierno:

  • Capita en UK usa Copilot para procesar pensiones, con resultados mixtos
  • Varios gobiernos han tenido que retractarse de políticas basadas en análisis de IA erróneos
  • Chatbots gubernamentales han dado consejos incorrectos a ciudadanos

La Respuesta de Microsoft

Microsoft aún no ha respondido específicamente a este incidente, pero la empresa ha dicho repetidamente que Copilot debe usarse como “asistente” y que los usuarios son responsables de verificar la información.

El Dilema

Por un lado, la IA puede aumentar la productividad de instituciones con recursos limitados. Por otro, las consecuencias de errores pueden ser graves.

La solución no es evitar la IA, sino usarla con los controles adecuados.


¿Tu empresa tiene protocolos para verificar información generada por IA? Si la respuesta es no, este es el momento de implementarlos.

Avatar de Jorge Razo
Jorge Razo Director @ KÖD