OpenAI Ahora Alertará a la Policía: Nuevos Protocolos Tras Tiroteo en Canadá
OpenAI acaba de publicar nuevos protocolos de seguridad que gobiernan cuándo involucrar a las autoridades. El cambio viene después de un fatal tiroteo en una escuela de Tumbler Ridge, Columbia Británica, que dejó ocho muertos y docenas de heridos.
Lo que pasó
El sospechoso interactuó con ChatGPT antes del ataque. Sus conversaciones sugerían la posibilidad de violencia en el mundo real.
OpenAI detectó el comportamiento y cerró la cuenta — pero no notificó a la policía.
Los nuevos protocolos
Según la carta de OpenAI al Ministro Solomon de Canadá, si la misma situación ocurriera hoy, alertarían a las autoridades.
Cuándo OpenAI contactará a la policía:
- Amenazas creíbles de violencia inminente — No solo menciones vagas, sino indicadores específicos
- Patrones de comportamiento preocupantes — Escalación en el tono o contenido de las conversaciones
- Información sobre víctimas potenciales identificables — Escuelas, ubicaciones, personas nombradas
Lo que NO harán:
- Monitoreo masivo de todas las conversaciones
- Reportar contenido que solo es “perturbador” pero no amenazante
- Compartir datos sin indicadores claros de riesgo
El debate ético
Este cambio abre preguntas difíciles:
A favor:
- Prevención de tragedias — Si la IA puede detectar amenazas, debería actuar
- Responsabilidad corporativa — OpenAI tiene acceso a información que puede salvar vidas
- Precedente positivo — Establece que las empresas de IA tienen obligaciones de seguridad pública
En contra:
- Privacidad — ¿Quién define qué es una “amenaza creíble”?
- Falsos positivos — Personas podrían ser investigadas por expresiones no literales
- Efecto inhibidor — Usuarios podrían dejar de usar la IA para discusiones sensibles pero legítimas
Reacciones de la industria
El cambio viene en un momento de tensión entre las empresas de IA y los gobiernos. OpenAI también anunció esta semana un acuerdo con el Pentágono que permite desplegar sus modelos en redes clasificadas militares.
Sam Altman escribió en X:
“El acuerdo refleja el deseo de OpenAI de prohibiciones sobre vigilancia masiva doméstica y responsabilidad humana sobre el uso de la fuerza, incluyendo para sistemas de armas autónomas.”
Lo que significa para usuarios
En EE.UU. y Canadá:
- Tus conversaciones con ChatGPT pueden ser reportadas si sugieren violencia real
- OpenAI ahora tiene obligación de actuar, no solo de bloquear
En México y LATAM:
- No está claro si estos protocolos aplican globalmente
- La relación con autoridades locales es diferente
- Por ahora, no esperes que OpenAI reporte a la policía mexicana
Para empresas y profesionales
Si usas ChatGPT en tu negocio:
- Revisa las políticas de uso — Entiende qué puede y no puede hacer tu equipo
- Establece guías internas — Qué tipo de contenido es apropiado para la IA
- Considera alternativas on-premise — Para conversaciones sensibles de negocio
El contexto más amplio
Este es parte de un patrón:
- Anthropic vs Pentágono — Conflicto sobre uso militar de Claude
- Regulación en Europa — AI Act establece obligaciones de transparencia
- Presión en EE.UU. — Llamados a que las empresas de IA sean más responsables
La IA está dejando de ser una herramienta “neutral”. Las empresas que la crean ahora tienen obligaciones de seguridad pública. El debate sobre dónde trazar la línea entre privacidad y prevención apenas comienza.


