Bloomberg — DeepSeek ha publicado un documento en el que esboza un enfoque más eficiente para desarrollar la IA, lo que ilustra el esfuerzo de la industria china de inteligencia artificial por competir con empresas como OpenAI a pesar de la falta de acceso libre a los chips de Nvidia Corp (NVDA).
Ver más: Bezos, Catz y Dell lideraron las ventas de acciones de ejecutivos en 2025
El documento, del que es coautor el fundador Liang Wenfeng, presenta un marco que denomina Hiperconexiones limitadas por manifiestos. Está diseñado para mejorar la escalabilidad al tiempo que reduce las demandas computacionales y energéticas del entrenamiento de sistemas avanzados de IA, según los autores.
Este tipo de publicaciones de DeepSeek han presagiado el lanzamiento de modelos importantes en el pasado. La startup con sede en Hangzhou asombró a la industria con el modelo de razonamiento R1 hace un año, desarrollado a una fracción del coste de sus rivales de Silicon Valley. Desde entonces, DeepSeek ha lanzado varias plataformas más pequeñas, pero crece la expectación por su próximo sistema insignia, ampliamente apodado el R2, que se espera en torno a la Fiesta de la Primavera, en febrero.
Las startups chinas siguen operando bajo importantes restricciones, ya que Estados Unidos impide el acceso a los semiconductores más avanzados, esenciales para desarrollar y hacer funcionar la IA. Estas restricciones han obligado a los investigadores a buscar métodos y arquitecturas poco convencionales.
Lo que dice Bloomberg Intelligence
El próximo modelo R2 de DeepSeek -que podría lanzarse en los próximos meses- tiene potencial para volver a poner patas arriba el sector mundial de la IA, a pesar de los recientes avances de Google. El modelo Gemini 3 de Google superó a OpenAI en noviembre para situarse entre los tres primeros en la clasificación de LiveBench sobre el rendimiento mundial de los grandes modelos lingüísticos (LLM). Los modelos chinos de bajo coste, que se desarrollan a una fracción del coste de sus competidores, se hicieron con dos puestos entre los 15 primeros.
- Robert Lea y Jasmine Lyu, analistas
DeepSeek, conocida por sus innovaciones poco ortodoxas, publicó su último trabajo esta semana a través del repositorio abierto arXiv y la plataforma de código abierto Hugging Face. En el documento figuran 19 autores, y el nombre de Liang aparece en último lugar.
El fundador, que siempre ha dirigido la agenda de investigación de DeepSeek, ha empujado a su equipo a replantearse cómo se conciben y construyen los sistemas de IA a gran escala.
La última investigación aborda retos como la inestabilidad del entrenamiento y la escalabilidad limitada, señalando que el nuevo método incorpora “una rigurosa optimización de la infraestructura para garantizar la eficiencia”. Las pruebas se realizaron con modelos de entre 3.000 y 27.000 millones de parámetros, basándose en la investigación de ByteDance Ltd. en 2024 sobre arquitecturas de hiperconexión.
La técnica es prometedora “para la evolución de los modelos fundacionales”, dijeron los autores.
Lea más en Bloomberg.com













