2 min de lectura

Anthropic crea IA 'demasiado peligrosa' para el público: Claude Mythos encuentra zero-days que nadie más detecta

Project Glasswing reúne a Apple, Google, Microsoft y 40 organizaciones más para usar Claude Mythos en ciberseguridad crítica. La IA encontró vulnerabilidades de 27 años en OpenBSD.

La IA que no vas a poder usar

Anthropic acaba de presentar algo sin precedentes: un modelo de IA tan poderoso en encontrar vulnerabilidades que decidieron no liberarlo al público.

Se llama Claude Mythos Preview, y solo estará disponible para un grupo selecto de empresas de ciberseguridad bajo una iniciativa llamada Project Glasswing.

Lo que Mythos ya encontró

Las cifras son escalofriantes:

  • Una vulnerabilidad de 27 años en OpenBSD que permite crashear un dispositivo remotamente con solo conectarse
  • Una falla de 16 años en FFmpeg que 5 millones de escaneos automatizados nunca detectaron
  • Múltiples vulnerabilidades en el kernel de Linux que combinadas permiten a un usuario normal tomar control total de un sistema

Y la peor parte: puede crear exploits funcionales con una tasa de éxito mucho mayor que modelos anteriores.

Quiénes tienen acceso

Project Glasswing incluye a los pesos pesados:

EmpresaRol
AppleSeguridad de dispositivos
GoogleInfraestructura y Android
MicrosoftWindows y Azure
AWSCloud security
NvidiaChips y drivers
CrowdStrikeEndpoint protection
Palo Alto NetworksNetwork security
Linux FoundationKernel y open source

Más de 40 organizaciones que manejan software crítico tienen acceso.

$100 millones en juego

Anthropic está poniendo:

  • $100M en licencias de uso para organizaciones participantes
  • $4M directamente para mantenedores de open source
  • Recursos para encontrar y parchear vulnerabilidades antes de que otros modelos de IA alcancen estas capacidades

El contexto político

Este anuncio llega en pleno conflicto entre Anthropic y el Pentágono. La empresa rechazó usar su IA en armas autónomas o vigilancia masiva, y el gobierno la declaró “riesgo de seguridad”.

Según Platformer, Anthropic ofreció ayudar a evaluar Mythos para el gobierno, pero no está claro si aceptarán.

Por qué esto importa

La pregunta incómoda: ¿Qué pasa cuando otras IAs alcancen estas capacidades sin estos controles?

La carrera ahora no es solo por crear el modelo más inteligente, sino por parchear la infraestructura mundial antes de que los atacantes tengan estas herramientas.


Fuente: Heise.de, Anthropic Blog

Avatar de Jorge Razo
Jorge Razo Director @ KÖD