2 min de lectura

Abogado de casos de psicosis por IA advierte riesgo de "daños masivos"

El abogado que lidera demandas por suicidios vinculados a chatbots dice que la IA ahora aparece en casos de daño masivo. La tecnología avanza más rápido que las protecciones.

La noticia

El abogado que ha liderado las demandas más sonadas contra empresas de chatbots IA — incluyendo casos de suicidio vinculados a Character.AI — lanzó una advertencia escalofriante:

“Ya no estamos hablando solo de casos individuales. La IA está apareciendo en investigaciones de daños masivos.”

El contexto

Desde 2024, múltiples casos han vinculado chatbots de IA con:

  • Suicidios de adolescentes
  • Psicosis inducida en usuarios vulnerables
  • Radicalización acelerada
  • Trastornos de apego a personajes ficticios

El abogado, que representa a varias familias afectadas, dice que los nuevos casos son “de otra escala”.

Qué significa “daños masivos”

Sin revelar detalles de casos activos, el abogado describió patrones preocupantes:

Tipo de casoAntes (2024-2025)Ahora (2026)
VíctimasIndividualMúltiples
TriggerChatbot companionAgentes autónomos
EvidenciaLogs de chatSistemas complejos
ResponsableUna empresaCadena de proveedores

El problema de los agentes

Los agentes IA como OpenClaw operan con más autonomía que los chatbots tradicionales:

  • Acceso a herramientas reales (email, archivos, web)
  • Persistencia — recuerdan conversaciones
  • Capacidad de actuar — no solo conversar

Esto crea nuevos vectores de daño que las regulaciones actuales no contemplan.

La respuesta de la industria

Las empresas argumentan:

  • “Los términos de servicio son claros”
  • “Tenemos filtros de seguridad”
  • “La responsabilidad es del usuario”

Pero los abogados contraatacan:

  • “Los filtros fallan sistemáticamente”
  • “Diseñan para engagement, no para seguridad”
  • “Usuarios vulnerables no pueden dar consentimiento informado”

Qué debería cambiar

Según expertos en seguridad IA:

  1. Verificación de edad real — No solo checkbox
  2. Límites de uso para menores
  3. Detección de crisis mejorada
  4. Transparencia sobre cómo funcionan los modelos
  5. Responsabilidad legal clara para desarrolladores

La realidad

La tecnología avanza exponencialmente. Las regulaciones, linealmente.

Por cada filtro de seguridad que implementan, hay 10 formas de evadirlo. Y mientras tanto, millones de personas — muchas vulnerables — interactúan diariamente con sistemas que nadie entiende completamente.


Fuente: TechCrunch

Avatar de Jorge Razo
Jorge Razo Director @ KÖD