Bloomberg — Desde hace meses, Sam Altman, de OpenAI, viene hablando de planes para gastar billones de dólares en una expansión sin precedentes de centros de datos equipados con chips avanzados para impulsar la inteligencia artificial.
Ver más: El “último recurso” de Sam Altman para ChatGPT se parece mucho a Facebook
La tarea de convertir esa ambición en realidad recae ahora, en parte, en Sachin Katti, un fichaje reciente de OpenAI que pasó buena parte de su carrera en el mundo académico y que suele decir que no tuvo un trabajo “de verdad” hasta que comenzó a trabajar en Intel Corp. (INTC) hace poco más de cuatro años.
Katti, anteriormente director de tecnología e inteligencia artificial de Intel, se incorporó en noviembre a la empresa creadora de ChatGPT como responsable de computación industrial. En ese cargo, reporta al presidente de OpenAI, Greg Brockman, y supervisa sus alianzas industriales, así como los equipos de ingeniería, entrega y operaciones.
Katti, que pasó más de 15 años como profesor en Stanford, trabaja ahora en encontrar capacidad adicional de centros de datos y en asegurar más componentes, como chips de IA y memoria. Y lo hace en un momento en que los operadores de centros de datos enfrentan restricciones en la red eléctrica, escasez de chips de memoria y una creciente resistencia de comunidades locales.
“Somos muy paranoicos con las sorpresas que puedan venir”, dijo en una entrevista con Bloomberg News, en referencia a riesgos que van desde faltantes en la cadena de suministro hasta cuestiones geopolíticas. Por ahora, aseguró, OpenAI está satisfecha con su avance en infraestructura.
Para seguir estándolo, Katti y la compañía están impulsando con fuerza una mayor diversificación tanto de proveedores como de regiones geográficas donde OpenAI tiene presencia de centros de datos, con el objetivo de avanzar lo más rápido posible en su expansión de infraestructura.
OpenAI había dicho anteriormente que su capacidad de cómputo se triplicó con creces en 2025 hasta alcanzar aproximadamente 1,9 gigavatios. A modo de comparación, un solo gigavatio basta para abastecer a unas 750.000 viviendas en EE.UU. en un momento dado. Altman, por su parte, ha dicho que su meta es eventualmente “producir un gigavatio de nueva infraestructura de IA cada semana”.
Ver más: OpenAI comenzará a probar anuncios en ChatGPT para aumentar sus ingresos
Para lograrlo, OpenAI está trabajando con socios en centros de datos en varios estados de EE.UU., así como en Europa, Medio Oriente y Sudamérica. Recientemente optó por no arrendar una ampliación de su enorme centro de datos de marca Stargate en Abilene, Texas, construido por Crusoe. Parte de la razón, dijo la empresa, es que tenía mejores opciones en otros estados, como Wisconsin, que le permitían una expansión más rápida de capacidad utilizando los chips más nuevos de Nvidia Corp (NVDA).
OpenAI también ha alcanzado acuerdos multimillonarios con varios fabricantes de chips, entre ellos Cerebras Systems Inc. para ejecutar modelos de IA una vez entrenados, y Amazon (AMZN) Web Services para obtener suministro adicional. “Una de las cosas atractivas de eso es, francamente, la diversificación del suministro”, dijo sobre un acuerdo reciente para aprovechar 2 gigavatios de capacidad a partir de los chips Trainium de Amazon.com Inc.
El desarrollador de IA también está fabricando sus propios chips mediante una alianza con Broadcom Inc (AVGO). El chip de OpenAI va según lo previsto para desplegarse ampliamente el próximo año, dijo Katti, confirmando comentarios recientes del director ejecutivo de Broadcom, Hock Tan. Katti también señaló que la predicción de Tan de que el despliegue del procesador alcanzará 1 gigavatio de capacidad el próximo año “está en el rango correcto”.
Aun así, OpenAI sigue dependiendo del líder del mercado, Nvidia, para el hardware utilizado en el entrenamiento de sus modelos de IA más avanzados. OpenAI planea desplegar alrededor de 1 gigavatio de cómputo usando los próximos aceleradores de IA Vera Rubin de Nvidia más adelante este año. “Está en esa escala, probablemente incluso mayor con el tiempo”, dijo.
En el área de obleas de chips y memoria, OpenAI está tratando de ayudar a convencer a los fabricantes de invertir en nuevas plantas asegurándoles que habrá una fuerte demanda durante los próximos años. Los fabricantes de memoria son reacios a expandirse demasiado y verse perjudicados por un exceso de oferta, como les ocurrió a Micron Technology Inc. y SK Hynix Inc. tras el fin de la pandemia.
“No quieren entrar en un ciclo de auge y caída”, dijo Katti. “Son muy conservadores sobre cómo quieren invertir, y con razón”.
Katti y la compañía también están atentos a buenas oportunidades de adquisiciones que puedan acelerar aún más sus esfuerzos de infraestructura.
“Si se piensa en el mundo físico, sigue estando en gran medida sin cambios en cuanto a la rapidez con la que se pueden construir las cosas”, dijo. “Es un ciclo de tres años. Pero nuestras necesidades cambian cada tres meses”.
Lea más en www.bloomberg.com