3 min de lectura

Samsung Es el Primero en Enviar Chips HBM4: La Memoria que Alimenta la IA

Samsung anuncia que ya está enviando memoria HBM4, superando a Micron por un día. Estos chips son esenciales para las GPUs de Nvidia y el futuro de la IA.

Samsung gana la carrera del HBM4: el chip que hace posible la IA moderna

En la guerra silenciosa de los semiconductores, Samsung acaba de anotar un punto importante: es el primer fabricante en enviar comercialmente chips HBM4 (High Bandwidth Memory de cuarta generación). Micron anunció lo mismo un día después, pero Samsung se llevó el título de “primero”.

¿Qué es HBM4 y por qué importa?

Para los que no viven en el mundo de los chips, aquí está la versión simple:

HBM (High Bandwidth Memory) es el tipo de memoria que usan las GPUs más poderosas del mundo — las mismas que entrenan a ChatGPT, Claude y todos los modelos de IA que usamos. Sin HBM, no hay IA moderna.

GeneraciónAncho de bandaUso principal
HBM2e460 GB/sGPUs anteriores
HBM3665 GB/sNvidia H100
HBM3e1.2 TB/sNvidia H200
HBM41.6+ TB/sNvidia Vera Rubin (próxima)

El HBM4 es significativamente más rápido y eficiente que las generaciones anteriores.

La conexión con Nvidia

Este anuncio es especialmente relevante porque Nvidia depende de Samsung (y Micron y SK Hynix) para la memoria de sus GPUs. Con HBM4 listo, el camino está despejado para:

  • Nvidia Vera Rubin — La siguiente generación de GPUs para datacenters
  • Entrenamiento más rápido — Modelos de IA cada vez más grandes
  • Inferencia eficiente — Respuestas más rápidas de los chatbots

The Register reporta que esto “bodes well” para que Nvidia lance Vera Rubin en el siguiente trimestre como estaba planeado.

La competencia: Samsung vs Micron vs SK Hynix

El mercado de HBM es un oligopolio de tres jugadores:

  1. SK Hynix (Corea) — Líder actual, proveedor principal de Nvidia
  2. Samsung (Corea) — Segundo lugar, intentando recuperar terreno
  3. Micron (USA) — Tercer lugar, pero creciendo rápido

Samsung ha tenido problemas de calidad con generaciones anteriores, lo que le costó contratos con Nvidia. Este lanzamiento de HBM4 es su oportunidad de redimirse.

El impacto en precios

Hay buenas y malas noticias:

Buenas: Más oferta de HBM4 significa que las GPUs de siguiente generación estarán disponibles más pronto.

Malas: Los precios de memoria están subiendo dramáticamente. The Register reporta que DRAM se ha duplicado y NAND subió 70% recientemente, causando una “explosión de precios” que está afectando a toda la industria de PCs.

Para empresas en México

Si tu negocio usa servicios de IA en la nube (API de OpenAI, Claude, etc.), estos desarrollos en hardware eventualmente se traducen en:

  • Mejor rendimiento — Respuestas más rápidas
  • Menor costo por token — Cuando la oferta alcance la demanda
  • Nuevas capacidades — Modelos más grandes y capaces

La guerra de los semiconductores continúa. Mientras nosotros usamos ChatGPT, estas empresas pelean por los milímetros de silicio que hacen todo posible.

Avatar de Jorge Razo
Jorge Razo Director @ KÖD