Apple evalúa reemplazar su IA por modelos de OpenAI o Anthropic para impulsar a Siri

Un cambio a los modelos Claude de Anthropic o ChatGPT de OpenAI para Siri sería un reconocimiento de que la compañía está luchando por competir en la IA generativa, la nueva tecnología más importante en décadas.

Apple evalúa reemplazar su IA por modelos de OpenAI o Anthropic para impulsar a Siri.
Por Mark Gurman
30 de junio, 2025 | 07:13 PM

Bloomberg — Apple Inc. (AAPL) está considerando la posibilidad de utilizar la tecnología de inteligencia artificial de Anthropic PBC u OpenAI para impulsar una nueva versión de Siri, dejando de lado sus propios modelos internos en un movimiento potencialmente taquillero destinado a revertir su tambaleante esfuerzo en inteligencia artificial.

El fabricante del iPhone ha hablado con ambas empresas sobre la posibilidad de utilizar sus grandes modelos lingüísticos para Siri, según personas familiarizadas con las conversaciones. Les ha pedido que entrenen versiones de sus modelos que podrían ejecutarse en la infraestructura en la nube de Apple para realizar pruebas, dijeron las personas, que pidieron no ser identificadas al hablar de deliberaciones privadas.

PUBLICIDAD

Ver más: Apple no necesita entrar en pánico y comprar su camino a la gloria de la IA

Si Apple finalmente sigue adelante, representaría un giro monumental. En la actualidad, la compañía alimenta la mayoría de sus funciones de IA con tecnología propia que denomina Apple Foundation Models y había estado planeando una nueva versión de su asistente de voz que funcione con esa tecnología para 2026.

Un cambio a los modelos Claude de Anthropic o ChatGPT de OpenAI para Siri sería un reconocimiento de que la compañía está luchando por competir en la IA generativa, la nueva tecnología más importante en décadas. Apple ya permite que ChatGPT responda a consultas de búsqueda basadas en la web en Siri, pero el propio asistente está impulsado por Apple.

La investigación de Apple sobre modelos de terceros se encuentra en una fase temprana, y la compañía no ha tomado una decisión final sobre su uso, dijeron las personas. Un proyecto competidor apodado internamente LLM Siri que utiliza modelos propios sigue en desarrollo activo.

Realizar un cambio, que se está debatiendo para el próximo año, podría permitir a Apple, con sede en Cupertino (California), ofrecer funciones de Siri a la par que los asistentes de IA de los teléfonos Android, lo que ayudaría a la empresa a despojarse de su reputación de rezagada en IA.

Representantes de Apple, Anthropic y OpenAI declinaron hacer comentarios. Las acciones de Apple subieron más de un 2% después de que Bloomberg informara de las deliberaciones.

Siri lucha

El proyecto para evaluar modelos externos fue iniciado por el jefe de Siri, Mike Rockwell, y el jefe de ingeniería de software, Craig Federighi. Se les encomendó la supervisión de Siri después de que las funciones dejaran de estar bajo el mando de John Giannandrea, el jefe de IA de la compañía. Fue apartado a raíz de una tibia respuesta a los retrasos de la Inteligencia de Apple y de las funciones de Siri.

PUBLICIDAD

Rockwell, que anteriormente lanzó los auriculares Vision Pro, asumió el papel de ingeniero de Siri en marzo. Tras asumir el cargo, dio instrucciones a su nuevo grupo para que evaluara si Siri haría un mejor trabajo manejando las consultas utilizando los modelos de IA de Apple o tecnología de terceros, incluyendo Claude, ChatGPT y Google Gemini de Alphabet Inc. (GOOGL).

Ver más: Apple explora una posible alianza o compra de Perplexity para fortalecer su estrategia en IA

Después de múltiples rondas de pruebas, Rockwell y otros ejecutivos llegaron a la conclusión de que la tecnología de Anthropic es la más prometedora para las necesidades de Siri, dijeron las personas. Eso llevó a Adrian Perica, vicepresidente de desarrollo corporativo de la compañía, a iniciar conversaciones con Anthropic sobre el uso de Claude, dijeron las personas.

El asistente Siri, lanzado originalmente en 2011, se ha quedado rezagado con respecto a los populares chatbots de IA, y los intentos de Apple de actualizar el software se han visto obstaculizados por problemas de ingeniería y retrasos.

Hace un año, Apple desveló nuevas capacidades de Siri, incluidas las que le permitirían acceder a los datos personales de los usuarios y analizar el contenido en pantalla para responder mejor a las consultas. La compañía también mostró una tecnología que permitiría a Siri controlar con mayor precisión aplicaciones y funciones en todos los dispositivos Apple.

Las mejoras estaban lejos de estar listas. Apple anunció inicialmente planes para un lanzamiento a principios de 2025, pero finalmente retrasó el lanzamiento indefinidamente. Ahora están previstas para la próxima primavera, según ha informado Bloomberg News.

Incertidumbre sobre la IA

Personas con conocimiento del equipo de IA de Apple afirman que está operando con un alto grado de incertidumbre y falta de claridad, con los ejecutivos todavía estudiando detenidamente una serie de posibles direcciones. Apple ya ha aprobado un presupuesto multimillonario para 2026 para ejecutar sus propios modelos a través de la nube, pero sus planes para más allá siguen siendo turbios.

Aún así, Federighi, Rockwell y otros ejecutivos se han mostrado cada vez más abiertos a la idea de que la adopción de tecnología externa es la clave para un cambio de rumbo a corto plazo. No ven la necesidad de que Apple confíe en sus propios modelos, que actualmente consideran inferiores, cuando puede asociarse con terceros en su lugar, según las personas.

Ver más: Apple se arriesga a nuevas multas de la UE por restricciones a la App Store

La concesión de licencias de IA a terceros reflejaría un enfoque adoptado por Samsung Electronics Co. Aunque la empresa marca sus funciones bajo el paraguas de Galaxy AI, muchas de sus funciones se basan en realidad en Gemini. Anthropic, por su parte, ya es utilizada por Amazon.com Inc. (AMZN) para ayudar a impulsar la nueva Alexa+.

En el futuro, si su propia tecnología mejora, los ejecutivos creen que Apple debería tener la propiedad de los modelos de IA dada su creciente importancia en el funcionamiento de los productos. La empresa está trabajando en una serie de proyectos, entre ellos un robot de sobremesa y unas gafas que harán un uso intensivo de la IA.

Apple también ha considerado recientemente la adquisición de Perplexity para ayudar a reforzar su trabajo en IA, según ha informado Bloomberg. También mantuvo brevemente conversaciones con Thinking Machines Lab, la startup de IA fundada por la antigua directora de tecnología de OpenAI, Mira Murati.

Moral agria

Los modelos de Apple son desarrollados por un equipo de unas 100 personas dirigido por Ruoming Pang, un distinguido ingeniero de Apple que se incorporó procedente de Google en 2021 para dirigir este trabajo. Rinde cuentas a Daphne Luong, directora sénior a cargo de la investigación sobre IA.

Luong es una de las principales lugartenientes de Giannandrea, y el equipo de modelos de cimentación es uno de los pocos grupos significativos de IA que aún dependen de Giannandrea. Incluso en esa área, Federighi y Rockwell han asumido un papel más importante.

Independientemente del camino que tome, el cambio propuesto ha pesado en el equipo, que cuenta con algunos de los talentos más demandados de la industria de la IA.

Fotógrafo: David Paul Morris/Bloomberg.

Algunos miembros han señalado internamente que no están contentos con que la empresa esté considerando tecnología de terceros, lo que crea la percepción de que son culpables, al menos en parte, de las deficiencias de la empresa en materia de IA. Han dicho que podrían marcharse por paquetes multimillonarios que están ofreciendo Meta Platforms Inc. (META) y OpenAI.

Meta, propietaria de Facebook e Instagram, ha estado ofreciendo a algunos ingenieros paquetes salariales anuales de entre US$10 y US$40 millones, o incluso más, para que se unan a su nuevo grupo Superintelligence Labs, según personas con conocimiento del asunto. Apple es conocida, en muchos casos, por pagar a sus ingenieros de IA la mitad, o incluso menos, de lo que pueden obtener en el mercado libre.

Uno de los investigadores más veteranos de modelos de grandes lenguajes de Apple, Tom Gunter, se marchó la semana pasada. Había trabajado en Apple durante unos ocho años, y algunos colegas lo ven difícil de reemplazar dado su conjunto de habilidades únicas y la disposición de los competidores de Apple a pagar exponencialmente más por el talento.

Este mes, Apple también estuvo a punto de perder al equipo detrás de MLX, su sistema clave de código abierto para desarrollar modelos de aprendizaje automático en los últimos chips de Apple. Después de que los ingenieros amenazaran con marcharse, Apple hizo contraofertas para retenerlos, y por ahora se quedan.

Discusiones con Anthropic y OpenAI

En sus conversaciones tanto con Anthropic como con OpenAI, el fabricante del iPhone solicitó una versión personalizada de Claude y ChatGPT que pudiera ejecutarse en los servidores Private Cloud Compute de Apple, una infraestructura basada en chips Mac de gama alta que la empresa utiliza actualmente para hacer funcionar sus modelos internos más sofisticados.

Apple cree que ejecutar los modelos en sus propios chips alojados en servidores en la nube controlados por Apple, en lugar de depender de infraestructuras de terceros, salvaguardará mejor la privacidad de los usuarios. La empresa ya ha probado internamente la viabilidad de la idea.

Ver más: Apple presenta Liquid Glass, el rediseño más ambicioso de su historia: las características

Otras funciones de la Inteligencia de Apple están impulsadas por modelos de IA que residen en los dispositivos de los consumidores. Estos modelos, más lentos y menos potentes que las versiones basadas en la nube, se utilizan para tareas como resumir correos electrónicos cortos y crear Genmojis.

Apple abrirá los modelos en los dispositivos a los desarrolladores externos a finales de este año, permitiendo a los creadores de aplicaciones crear funciones de IA basadas en su tecnología.

La compañía no ha anunciado planes para dar acceso a las aplicaciones a los modelos en la nube. Uno de los motivos es que los servidores en la nube aún no tienen capacidad para gestionar una avalancha de nuevas funciones de terceros.

La compañía no está trabajando actualmente en alejarse de sus modelos internos para casos de uso en el dispositivo o para desarrolladores. Aún así, los ingenieros del equipo de modelos de la fundación temen que el cambio a un tercero para Siri pueda presagiar un cambio también para otras funciones en el futuro.

El año pasado, OpenAI se ofreció a entrenar modelos en dispositivos para Apple, pero el fabricante del iPhone no se mostró interesado.

Fotógrafo: David Paul Morris/Bloomberg.

Desde diciembre de 2024, Apple utiliza OpenAI para gestionar algunas funciones. Además de responder a consultas de conocimiento del mundo en Siri, ChatGPT puede escribir bloques de texto en la función Herramientas de escritura. Más adelante, en iOS 26, habrá una opción de ChatGPT para la generación de imágenes y el análisis de imágenes en pantalla.

Mientras discuten un posible acuerdo, Apple y Anthropic han discrepado sobre los términos financieros preliminares, según las personas. La startup de IA busca un canon anual multimillonario que aumente considerablemente cada año. La lucha por llegar a un acuerdo ha dejado a Apple contemplando la posibilidad de trabajar con OpenAI u otros si sigue adelante con el plan de terceros, dijeron.

Ver más: Los cambios de iPhone con el iOS 26 de Apple: lista de dispositivos compatibles

Cambios en la gestión

Si Apple llega a un acuerdo, la influencia de Giannandrea, que se unió a Apple desde Google en 2018 y es partidario del desarrollo interno de grandes modelos lingüísticos, seguiría reduciéndose.

Además de perder Siri, Giannandrea fue despojado de la responsabilidad sobre la unidad de robótica de Apple. Y, en movimientos de los que no se había informado anteriormente, los equipos Core ML y App Intents de la compañía, grupos responsables de los marcos que permiten a los desarrolladores integrar la IA en sus aplicaciones, fueron trasladados a la organización de ingeniería de software de Federighi.

El equipo de modelos básicos de Apple también había estado construyendo grandes modelos de lenguaje para ayudar a los empleados y a los desarrolladores externos a escribir código en Xcode, su software de programación. La compañía acabó con el proyecto, anunciado el año pasado como Swift Assist, hace aproximadamente un mes.

En su lugar, Apple lanzará a finales de este año un nuevo Xcode que puede aprovechar los modelos de programación de terceros. Los desarrolladores de aplicaciones podrán elegir entre ChatGPT o Claude.

Lea más en Bloomberg.com

PUBLICIDAD