3 min de lectura

MIT Revela: La Mayoría de los Agentes de IA Operan Sin Reglas Ni Transparencia

El AI Agent Index 2025 de MIT CSAIL analiza los agentes de IA más populares y encuentra que operan sin divulgación de seguridad ni reglas claras.

MIT: Los Agentes de IA Operan Sin Reglas

El MIT CSAIL (Computer Science and Artificial Intelligence Laboratory) acaba de publicar su AI Agent Index 2025, y los resultados son preocupantes.

La mayoría de los agentes de IA comerciales operan sin:

  • Divulgación clara de sus capacidades
  • Reglas de seguridad transparentes
  • Límites definidos de actuación

¿Qué es un agente de IA?

A diferencia de un chatbot que solo responde, un agente de IA puede tomar acciones:

  • Ejecutar código
  • Navegar en internet
  • Modificar archivos
  • Enviar mensajes
  • Realizar compras
  • Controlar otros sistemas

Los hallazgos clave

MétricaResultado
Agentes con divulgación completa de capacidades12%
Agentes con límites de actuación documentados18%
Agentes con políticas de seguridad públicas23%
Agentes que divulgan qué datos usan31%

Casi 90% de los agentes no dicen claramente qué pueden hacer.

Por qué esto importa

Los agentes de IA están siendo integrados en:

  • Trabajo: Automatización de tareas, respuesta a emails
  • Finanzas: Trading, análisis, decisiones de inversión
  • Salud: Diagnósticos, recomendaciones de tratamiento
  • Gobierno: Procesamiento de solicitudes, decisiones administrativas

Si no sabemos qué pueden hacer, no podemos responsabilizarlos cuando fallen.

El problema de la “caja negra”

El estudio de MIT identifica un patrón común:

  1. Empresa lanza agente de IA
  2. Agente tiene capacidades no documentadas
  3. Usuario descubre capacidad por accidente (o por error)
  4. Empresa dice “eso no debería pasar”
  5. Nadie es responsable

Recomendaciones del MIT

El CSAIL propone un marco de transparencia para agentes:

Divulgación obligatoria

  • Qué acciones puede tomar el agente
  • Qué datos puede acceder
  • Qué límites tiene programados
  • Quién es responsable si falla

Auditoría independiente

  • Verificación de capacidades declaradas
  • Pruebas de seguridad estandarizadas
  • Certificación de terceros

Para empresas en México

Si tu empresa está considerando implementar agentes de IA:

  1. Pide documentación — ¿Qué puede hacer exactamente el agente?
  2. Define límites claros — ¿Qué NO debería poder hacer?
  3. Implementa logging — Guarda registro de todas las acciones
  4. Ten un kill switch — Poder detener al agente inmediatamente
  5. Asigna responsabilidad — ¿Quién responde si algo sale mal?

El contexto global

Este estudio sale en un momento donde:

  • Europa está regulando IA con el AI Act
  • India propone identificación digital para agentes
  • EE.UU. debate si los agentes deben ser tratados como productos o servicios

La regulación viene. Las empresas que se adelanten tendrán ventaja.


Los agentes de IA son poderosos, pero sin transparencia son un riesgo. El MIT acaba de poner los datos sobre la mesa. Ahora toca actuar.

Avatar de Jorge Razo
Jorge Razo Director @ KÖD