Bloomberg — La división Google Cloud de Alphabet Inc. (GOOGL) dio a conocer la última generación de su unidad de procesamiento tensorial, o TPU, un chip de fabricación propia que está diseñado para hacer que los servicios de computación de IA sean más rápidos y eficientes.
La nueva línea vendrá en dos versiones, dijo la compañía el miércoles en su evento Google Cloud Next, donde también anunció un fondo de US$750 millones para ayudar a impulsar la adopción de la IA por parte de las empresas y mostró herramientas para la construcción de agentes de IA. La TPU 8t está hecha a medida para crear software de inteligencia artificial, mientras que la TPU 8i está diseñada para ejecutar servicios de IA una vez creados, una etapa conocida como inferencia.
Ver más: Google crea un fondo de US$750 millones para que consultoras adopten la IA
Las acciones de Alphabet ganaron un 1,7% antes de la apertura de los mercados en Nueva York.
Google se ha convertido en uno de los fabricantes más exitosos de chips internos de IA en un sector dominado por Nvidia Corp. (NVDA). Las TPU se han convertido en un producto de moda en Silicon Valley en los últimos meses, y la empresa busca aprovechar ese impulso con las últimas versiones.
El esfuerzo forma parte de un impulso más amplio para hacer más barato y menos intensivo en energía el despliegue de software de IA. La compañía también está trabajando para hacer que los servicios sean más sensibles. Las nuevas TPU almacenan más información en el chip, lo que ayuda a proporcionar las respuestas rápidas que los usuarios ansían. Pero las demandas de capas de software cada vez más complejas no hacen más que crecer.
“Se trata de cómo ofrecer la menor latencia posible de la respuesta al menor coste posible por transacción”, afirmó Mark Lohmeyer, vicepresidente de infraestructuras informáticas y de IA de Google. “El número de transacciones está subiendo mucho, y el coste por transacción tiene que bajar mucho para que pueda escalar”.
La creación de servicios y software de IA se realiza utilizando sistemas que pueden cribar cantidades masivas de datos con gran rapidez para establecer conexiones y patrones que puedan representarse matemáticamente. La inferencia, que ejecuta el software y los servicios, se beneficia de procesadores que tienen integradas enormes cantidades de memoria.
Este enfoque ayuda a que las respuestas de la IA sean más instantáneas porque el componente no tiene que ir a buscar información almacenada en otro lugar. Es especialmente útil cuando los ordenadores “razonan” a través de los problemas, dando múltiples pasos y aprendiendo de sus propias acciones.
El chip de entrenamiento, 8t, puede combinarse en grupos de 9.600 semiconductores. Google señaló que, al desplegar sistemas tan masivos, la energía es cada vez más la principal limitación de los centros de datos. Por ello, los propietarios necesitan sistemas que sean más eficientes para sacar el máximo partido de la limitada disponibilidad de electricidad. La TPU 8t ofrece un 124% más de rendimiento por vatio que la generación anterior, mientras que la TPU 8i proporciona una ganancia del 117%.
A este aumento contribuye la mejora de la interconexión interna, que aumenta la capacidad de los chips para comunicarse entre sí de forma eficiente. Los sistemas de IA construidos con los chips estarán “disponibles de forma generalizada a finales de este año”, dijo Google en un comunicado.
La empresa seguirá ofreciendo servicios basados en los chips de Nvidia a los clientes que deseen utilizar los sistemas que actualmente dominan la informática de IA, afirmó. Google pretende estar entre los primeros en desplegar equipos basados en un nuevo diseño de Nvidia que llegará en la segunda mitad del año, dijo Lohmeyer.
Al igual que Google, Nvidia se está centrando más en la fase de inferencia de la IA. Su próxima línea incluirá tecnología procedente de su adquisición de Groq, una tecnología diseñada específicamente para ofrecer una capacidad de respuesta ultrarrápida.
El CEO de Nvidia, Jensen Huang, ha dicho que más del 20% de las cargas de trabajo de IA podrían estar mejor servidas por ese tipo de chip. Groq fue fundada en 2016 por un grupo de antiguos ingenieros de Google. El pasado diciembre, Nvidia pagó US$20.000 millones por una licencia para utilizar su tecnología y contrató a la mayor parte de su equipo de ingenieros.
Por separado, el miércoles, la unidad de computación en la nube de Google presentó un conjunto de herramientas que pueden crear agentes de IA y realizar un seguimiento de su trabajo dentro de las empresas, incluida una bandeja de entrada dedicada para que los robots virtuales publiquen información e informes de progreso. Google también presentó actualizaciones en toda su suite de productividad Workspace y ofreció una visión en la que los agentes de IA revisan drásticamente las rutinas diarias del trabajador medio.
Ver más: Google lanza nuevos agentes de IA para desafiar a OpenAI y Anthropic
Por su parte, el recién lanzado fondo de US$750 millones está destinado a ayudar a las consultorías a llevar la IA agéntica a sus clientes. DeepMind, el laboratorio de IA de Google, dará acceso anticipado a los modelos Gemini a empresas seleccionadas, que utilizarán las herramientas de IA y proporcionarán sus comentarios antes del lanzamiento.
Los ingenieros de Google también trabajarán junto a las consultoras para ayudar a resolver los problemas de los clientes. El capital se desplegará a lo largo de los próximos 12 meses y se utilizará para hacer cosas como ayudar a las consultoras a formar ingenieros y desarrollar agentes de IA a través de la plataforma empresarial de Gemini.
Con la colaboración de Julia Love y James Booth.
Lea más en Bloomberg.com