sinlatencia
registro diario del mundo computado
Hardware 10 de mayo de 2026

Cerebras va a bolsa con el chip de IA más grande del mundo y una valoración de 26.600 millones de dólares

El fabricante del WSE-3 eleva su precio de OPV a $125–$135 por acción tras recibir órdenes veinte veces superiores a la oferta. Debuta en Nasdaq el 14 de mayo.

Cerebras va a bolsa con el chip de IA más grande del mundo y una valoración de 26.600 millones de dólares
Crédito: Foto: Cerebras Systems / IEEE Spectrum

El viernes 8 de mayo, Bloomberg reportó que Cerebras Systems planea elevar el rango de precio de su oferta pública inicial antes del lunes. La razón es la más simple de todas: hay más demanda que acciones disponibles, veinte veces más. Una empresa que hace chips para inteligencia artificial con una arquitectura radicalmente distinta a la de Nvidia va a debutar en el Nasdaq el miércoles 14 bajo el ticker CBRS, y los bancos ya tienen órdenes por 10.000 millones de dólares para una oferta de 3.500 millones.

El producto central de Cerebras es el Wafer-Scale Engine 3 (WSE-3), que con cierta ironía es también el más simple de describir: es el procesador más grande del mundo. Ocupa un wafer completo de 300 milímetros, lo que equivale a unos 46.225 mm², alrededor de 56 veces el tamaño de una GPU convencional. Contiene 4 billones de transistores y 900.000 núcleos especializados para IA. La propuesta es que, en lugar de conectar cientos de chips de Nvidia en un clúster y lidiar con la latencia de red entre ellos, un solo CS-3 puede hacer el trabajo de muchos con menos fricción.

Los números respaldan el pitch. Según el prospecto registrado ante la SEC, Cerebras facturó 510 millones de dólares en su último año fiscal, un aumento del 76% respecto al año anterior. Lo más llamativo es la ganancia neta GAAP de 87,9 millones de dólares, una vuelta de página notable para una empresa que registró pérdidas de 485 millones en 2024. No es frecuente que una compañía de chips en etapa de escalamiento llegue a la bolsa en números negros.

El cliente que explica buena parte de esa transformación es OpenAI. La empresa de Sam Altman firmó con Cerebras un contrato de más de 20.000 millones de dólares para acceder a 750 megavatios de capacidad computacional a través de 2028, según reportó TechCrunch. Además, OpenAI prestó 1.000 millones de dólares a Cerebras y tiene warrants para adquirir 33,4 millones de acciones. Que OpenAI sea cliente, acreedor y potencial accionista a la vez dice algo sobre cuán concentrado está este sector.

A eso se suma un acuerdo de integración con Amazon Web Services para incorporar los chips CS-3 dentro de Amazon Bedrock, el servicio gestionado de inferencia de AWS. Si se concreta, Cerebras pasaría de vender hardware directamente a operar dentro de la infraestructura de nube más utilizada del mundo empresarial, lo que amplía bastante el tipo de cliente al que puede llegar.

La OPV original apuntaba a un rango de $115 a $125 por acción con 28 millones de acciones en venta. El nuevo rango de $125 a $135 implica una valoración de hasta 26.600 millones de dólares, frente a los 23.000 millones que valía tras su ronda Serie H de febrero de este año. Morgan Stanley, el banco líder del proceso, llegó a exigir órdenes limitadas para medir la demanda real, un movimiento inusual que refleja el nivel de interés que generó la oferta.

El contexto importa. Nvidia controla alrededor del 80% del mercado de chips para IA y sus GPU H100 y H200 son prácticamente el estándar de facto de la industria. AMD, Intel y una docena de startups llevan años intentando arañar participación con distintos grados de éxito. Cerebras no apunta a reemplazar a Nvidia en el mercado general, sino a dominar nichos donde el tamaño del WSE-3 ofrece ventajas concretas: entrenamiento de modelos grandes e inferencia de baja latencia, dos de los cuellos de botella más costosos del ecosistema actual.

La pregunta que queda abierta es si la arquitectura de wafer-scale tiene techo de escalamiento propio. Fabricar un chip del tamaño de un wafer completo es extraordinariamente difícil y caro. Cualquier defecto en la fabricación puede comprometer el chip entero. Cerebras resolvió este problema con técnicas propias de redundancia, pero a medida que los modelos de IA siguen creciendo, el sector va a necesitar saber si esta arquitectura puede seguir el ritmo o si tiene límites estructurales que los clústeres de GPU tradicionales simplemente no tienen.

Fuentes Bloomberg