2 min de lectura

OpenAI Revela: Policía China Usó ChatGPT para Operaciones de Difamación

OpenAI descubre que fuerzas de seguridad chinas utilizaron ChatGPT para planificar y ejecutar campañas de desprestigio contra opositores. Una advertencia sobre el uso indebido de la IA.

ChatGPT como Herramienta de Represión

OpenAI acaba de revelar algo perturbador: agentes de seguridad chinos utilizaron ChatGPT para planificar y rastrear operaciones de difamación contra opositores políticos.

El descubrimiento, publicado el 25 de febrero de 2026, incluye un detalle irónico que debería preocupar a cualquiera que use IA para actividades cuestionables: ChatGPT NO es un diario privado.

Los Detalles del Abuso

Según el reporte de OpenAI:

  • Funcionarios de seguridad usaron ChatGPT para generar contenido difamatorio
  • La herramienta se empleó para rastrear y perfilar objetivos
  • Se detectaron patrones de uso consistentes con operaciones coordinadas de desprestigio

Por Qué Esto es un Problema Mayor

Si eres emprendedor o manejas una empresa en México, esto te debe importar:

1. La IA Guarda Registros

Todo lo que escribes en ChatGPT queda guardado. OpenAI pudo detectar estos patrones precisamente porque tiene acceso a las conversaciones.

2. Los Términos de Servicio Importan

OpenAI prohibe explícitamente el uso de sus herramientas para vigilancia, acoso o campañas de desinformación. Violarlos puede resultar en bloqueo permanente y posibles acciones legales.

3. La IA No Es Anónima

Aunque pienses que nadie está viendo, las empresas de IA pueden y monitorean patrones de uso sospechoso.

Lecciones para Empresas Mexicanas

Este caso debería servir como recordatorio:

  • Nunca uses IA para actividades ilegales o éticamente cuestionables
  • Asume que todo queda registrado
  • Implementa políticas de uso de IA en tu empresa

El Contexto Más Amplio

Este no es un caso aislado. En las últimas semanas:

  • Meta descubrió campañas de desinformación usando sus plataformas
  • Google reportó abusos de Gemini por parte de actores estatales
  • Anthropic bloqueó miles de cuentas vinculadas a operaciones de influencia

La Reflexión

La IA es una herramienta poderosa. Como cualquier herramienta, puede usarse para construir o para destruir. Este caso nos recuerda que el poder viene con responsabilidad — y consecuencias cuando se abusa.


¿Tu empresa tiene políticas claras sobre el uso de IA? Tal vez sea momento de implementarlas.

Avatar de Jorge Razo
Jorge Razo Director @ KÖD