3 min de lectura

OpenAI Ahora Alertará a la Policía: Nuevos Protocolos de Seguridad Tras Tiroteo en Canadá

Después de que un tirador interactuó con ChatGPT antes de un ataque escolar, OpenAI implementa nuevas políticas para notificar a las autoridades sobre amenazas potenciales.

OpenAI Ahora Alertará a la Policía: Nuevos Protocolos Tras Tiroteo en Canadá

OpenAI acaba de publicar nuevos protocolos de seguridad que gobiernan cuándo involucrar a las autoridades. El cambio viene después de un fatal tiroteo en una escuela de Tumbler Ridge, Columbia Británica, que dejó ocho muertos y docenas de heridos.

Lo que pasó

El sospechoso interactuó con ChatGPT antes del ataque. Sus conversaciones sugerían la posibilidad de violencia en el mundo real.

OpenAI detectó el comportamiento y cerró la cuenta — pero no notificó a la policía.

Los nuevos protocolos

Según la carta de OpenAI al Ministro Solomon de Canadá, si la misma situación ocurriera hoy, alertarían a las autoridades.

Cuándo OpenAI contactará a la policía:

  1. Amenazas creíbles de violencia inminente — No solo menciones vagas, sino indicadores específicos
  2. Patrones de comportamiento preocupantes — Escalación en el tono o contenido de las conversaciones
  3. Información sobre víctimas potenciales identificables — Escuelas, ubicaciones, personas nombradas

Lo que NO harán:

  • Monitoreo masivo de todas las conversaciones
  • Reportar contenido que solo es “perturbador” pero no amenazante
  • Compartir datos sin indicadores claros de riesgo

El debate ético

Este cambio abre preguntas difíciles:

A favor:

  • Prevención de tragedias — Si la IA puede detectar amenazas, debería actuar
  • Responsabilidad corporativa — OpenAI tiene acceso a información que puede salvar vidas
  • Precedente positivo — Establece que las empresas de IA tienen obligaciones de seguridad pública

En contra:

  • Privacidad — ¿Quién define qué es una “amenaza creíble”?
  • Falsos positivos — Personas podrían ser investigadas por expresiones no literales
  • Efecto inhibidor — Usuarios podrían dejar de usar la IA para discusiones sensibles pero legítimas

Reacciones de la industria

El cambio viene en un momento de tensión entre las empresas de IA y los gobiernos. OpenAI también anunció esta semana un acuerdo con el Pentágono que permite desplegar sus modelos en redes clasificadas militares.

Sam Altman escribió en X:

“El acuerdo refleja el deseo de OpenAI de prohibiciones sobre vigilancia masiva doméstica y responsabilidad humana sobre el uso de la fuerza, incluyendo para sistemas de armas autónomas.”

Lo que significa para usuarios

En EE.UU. y Canadá:

  • Tus conversaciones con ChatGPT pueden ser reportadas si sugieren violencia real
  • OpenAI ahora tiene obligación de actuar, no solo de bloquear

En México y LATAM:

  • No está claro si estos protocolos aplican globalmente
  • La relación con autoridades locales es diferente
  • Por ahora, no esperes que OpenAI reporte a la policía mexicana

Para empresas y profesionales

Si usas ChatGPT en tu negocio:

  1. Revisa las políticas de uso — Entiende qué puede y no puede hacer tu equipo
  2. Establece guías internas — Qué tipo de contenido es apropiado para la IA
  3. Considera alternativas on-premise — Para conversaciones sensibles de negocio

El contexto más amplio

Este es parte de un patrón:

  • Anthropic vs Pentágono — Conflicto sobre uso militar de Claude
  • Regulación en Europa — AI Act establece obligaciones de transparencia
  • Presión en EE.UU. — Llamados a que las empresas de IA sean más responsables

La IA está dejando de ser una herramienta “neutral”. Las empresas que la crean ahora tienen obligaciones de seguridad pública. El debate sobre dónde trazar la línea entre privacidad y prevención apenas comienza.

Avatar de Jorge Razo
Jorge Razo Director @ KÖD