Bloomberg Línea — Cerebras Systems (CBRS) irrumpió este jueves en Wall Street con una subida de 89% en su debut bursátil, después de protagonizar la mayor oferta pública inicial de 2026 en Estados Unidos y convertirse en la mayor salida a bolsa de semiconductores registrada en el mercado estadounidense, según datos de Bloomberg.
Ver más: Cerebras se dispara 89% en la salida a bolsa más grande en lo que va de 2026
Las acciones de la compañía abrieron en US$350 frente al precio de colocación de US$185, después de que la empresa recaudara US$5.550 millones en una operación que reflejó el fuerte apetito de los inversionistas por compañías vinculadas a infraestructura de inteligencia artificial.
El debut también elevó el valor de mercado de Cerebras a unos US$75.300 millones, o cerca de US$93.000 millones sobre una base totalmente diluida. La acción retrocedía en los minutos posteriores a su apertura.
La operación llega en medio de una nueva etapa de expansión del mercado de IA, donde el foco empieza a desplazarse desde el entrenamiento de modelos hacia la velocidad con la que esos sistemas responden consultas y ejecutan tareas.
ASÍ VA LA ACCIÓN DE CEREBRAS
Andrew Feldman, fundador y director ejecutivo de Cerebras, afirmó que “estamos apenas en el comienzo de la utilidad de la IA. Y cuanto más útil sea la IA, más tokens se necesitarán. Y nosotros producimos el token más rápido”.
¿Cómo compite Cerebras con Nvidia?
Cerebras se ha convertido en uno de los nombres más observados dentro del mercado de chips para inteligencia artificial, porque busca competir en un segmento donde Nvidia (NVDA) domina gran parte de la infraestructura global.
La diferencia está en la arquitectura. Nvidia construyó su liderazgo sobre procesadores gráficos o GPU capaces de entrenar modelos de IA a gran escala. Cerebras desarrolló una tecnología distinta a la de Nvidia para procesar inteligencia artificial. Mientras la mayoría de fabricantes utiliza muchos chips pequeños conectados entre sí, la compañía apuesta por un chip gigante capaz de concentrar más capacidad de cálculo y memoria dentro de un mismo sistema.
→ Suscríbete al newsletter Línea de Mercado, una selección de Bloomberg Línea con las noticias bursátiles más destacadas del día.
Ese enfoque apunta a resolver uno de los nuevos desafíos de la inteligencia artificial: reducir los tiempos de respuesta. Cerebras sostiene que su arquitectura permite acelerar tareas como generación de texto, asistentes virtuales y automatización empresarial, un mercado que gana importancia a medida que la industria pasa de entrenar modelos a utilizarlos diariamente a gran escala.
Esto sucede porque industria de IA está entrando en una fase donde la inferencia gana protagonismo. Ese proceso ocurre cuando un modelo ya entrenado responde preguntas, genera texto o ejecuta instrucciones en tiempo real. Cada consulta hecha a un chatbot, un asistente virtual o una herramienta automatizada consume capacidad computacional.
Ruben Dalfovo, estratega de inversión de Saxo Bank, explicó que “la IA está pasando del entrenamiento a la inferencia”, un cambio que está modificando las necesidades de infraestructura dentro del sector.

La velocidad empieza a convertirse en un factor comercial clave porque las empresas tecnológicas buscan que las respuestas de IA funcionen de forma inmediata y a gran escala. Feldman aseguró que Cerebras es “15 veces más rápido que el competidor más cercano”.
Ese segmento también se ha convertido en uno de los pocos espacios donde Nvidia todavía enfrenta una competencia menos consolidada.
Bloomberg informó que Alphabet (GOOGL) presentó recientemente nuevos productos para inferencia, mientras que Nvidia habría pagado unos US$20.000 millones por la tecnología y el personal de Groq, uno de los rivales de Cerebras.
Ver más: Nvidia rompe otro récord en Wall Street y supera los US$5,5 billones en valor de mercado
El interés por compañías enfocadas en inferencia refleja cómo el mercado de IA está dejando de centrarse únicamente en construir modelos más grandes y empieza a priorizar velocidad, costos operativos y capacidad de ejecución diaria.
OpenAI, Amazon y el nuevo mapa de la infraestructura de IA
La expansión de Cerebras también ha estado impulsada por acuerdos con algunas de las mayores compañías tecnológicas del mundo.
OpenAI firmó un contrato multianual valorado en más de US$20.000 millones para acceder a 750 megavatios de capacidad computacional de Cerebras hasta 2028. La empresa detrás de ChatGPT ya lanzó este año un modelo operando sobre chips de la compañía.

Amazon (AMZN) también anunció planes para integrar chips de Cerebras junto con sus procesadores Trainium dentro de Amazon Web Services. Feldman afirmó que ambas compañías ya firmaron un acuerdo preliminar vinculante.
“Tenemos muchísima confianza en que serán un canal enorme para nosotros y un socio para llevar nuestra tecnología a grandes y medianas empresas de todo el mundo”, dijo el ejecutivo.
Los acuerdos muestran cómo las grandes tecnológicas están buscando diversificar proveedores de infraestructura de IA en un mercado donde la demanda de capacidad computacional sigue creciendo con rapidez.
Ver más: Resultados de Nubank: el mercado espera crecimiento, pero vigila el riesgo crediticio
Yago Serrano, analista de XTB, señaló que Cerebras se ha convertido en “uno de los actores más relevantes” dentro de la nueva generación de infraestructura para inteligencia artificial, impulsada por la necesidad de más potencia de cálculo y menores tiempos de respuesta.
La fuerte demanda por la oferta pública inicial también refleja la escasez de compañías puramente enfocadas en chips de IA que llegan al mercado bursátil. Según Bloomberg, la operación fue sobresuscrita más de 25 veces.
La salida a bolsa ocurre además en medio de una recuperación más amplia del mercado de OPI en Estados Unidos. Bloomberg señaló que las ofertas públicas iniciales en bolsas estadounidenses ya han recaudado US$27.400 millones este año, más del doble frente al mismo periodo de 2025.

Un mercado que busca alternativas
El interés por Cerebras también dejó señales sobre cómo está cambiando el mercado de semiconductores para inteligencia artificial.
Semanas antes de la OPI, Arm Holdings (ARM) y SoftBank realizaron un acercamiento preliminar para adquirir la compañía, según Bloomberg. El movimiento mostró el valor estratégico que han adquirido las empresas capaces de desarrollar arquitecturas alternativas para IA.
Ver más: BofA destaca el flujo de caja de Nvidia y reafirma su recomendación de compra
Aun así, Cerebras enfrenta desafíos importantes. La compañía registró ingresos por US$510 millones en 2025, con un beneficio neto de US$87,9 millones y un margen bruto de 39%.
Además de expandir capacidad y ejecutar contratos multimillonarios, la empresa necesita demostrar que puede sostener crecimiento operativo en un mercado donde Nvidia mantiene una posición dominante y las grandes tecnológicas aceleran el desarrollo de sus propios chips.
Dalfovo advirtió que “la verdadera prueba es menos fotogénica: calidad de ingresos, diversidad de clientes, márgenes y ejecución”.













