Bloomberg — El presidente Donald Trump ordenó a las agencias del gobierno de Estados Unidos que dejen de utilizar los productos de Anthropic PBC, poniendo fin a una disputa entre el gigante de la inteligencia artificial y el Pentágono sobre las salvaguardas de su tecnología.
Trump advirtió el viernes de que la empresa debía colaborar en el esfuerzo de transición o enfrentarse a “importantes consecuencias civiles y penales” que no especificó. Dijo que habría un “periodo de eliminación gradual” de seis meses para las agencias, incluido el Departamento de Defensa, que utilizan los productos de Anthropic.
Ver más: Anthropic acusa a DeepSeek y MiniMax de extraer datos de sus modelos de IA
“Los izquierdistas desquiciados de Anthropic han cometido un ERROR DESASTROSO al intentar presionar al Departamento de Guerra y obligarlo a obedecer sus Términos de Servicio en lugar de nuestra Constitución”, publicó el presidente en redes sociales. “Por lo tanto, ordeno a TODAS las agencias federales del gobierno de los Estados Unidos que cesen INMEDIATAMENTE el uso de la tecnología de Anthropic”.
Los portavoces de Anthropic no respondieron inmediatamente a las solicitudes de comentarios.
La decisión de Trump repercutirá en las empresas de inteligencia artificial que han invertido cientos de miles de millones de dólares en esta tecnología y que están considerando cómo conseguir contratos federales. Elimina hasta US$200 millones en trabajos que Anthropic había acordado realizar para el ejército, además de contratos para agencias civiles, incluido el Departamento de Estado.
El secretario de Defensa, Pete Hegseth, había dado de plazo a la empresa hasta las 17.01 horas del viernes para que permitiera al Pentágono utilizar el chatbot Claude para cualquier fin, dentro de los límites legales pero sin ninguna restricción de uso por parte de Anthropic. La empresa ha insistido en que Claude no se utilice para la vigilancia masiva contra estadounidenses ni en operaciones armamentísticas totalmente autónomas.
Desde su fundación, Anthropic se ha posicionado como una empresa centrada en el uso responsable de la IA con el objetivo de evitar daños catastróficos derivados de esta tecnología. Esta postura ha llevado a su CEO, Dario Amodei, a una confrontación de alto riesgo con Hegseth, quien se ha comprometido a erradicar las prácticas progresistas en la extensa agencia que dirige.
Ver más: Hacker usa Claude de Anthropic para robar datos confidenciales en México
Anthropic se apresura a convencer a más empresas de que paguen por su software para ayudar a compensar el inmenso costo de desarrollar la IA y justificar su elevada valoración de US$380.000 millones. Se espera que la empresa se esté preparando para una oferta pública inicial tan pronto como este año.
Expulsar a Anthropic del gobierno supondría un reto potencial para la seguridad nacional, dado que la empresa era hasta hace poco el único sistema de IA que podía operar en la nube clasificada del Pentágono. Su herramienta Claude Gov es una opción favorita entre el personal de defensa por su facilidad de uso.
Amodei se comprometió el jueves a garantizar que cualquier transición de sus productos a otro proveedor se realice sin problemas. La empresa se ha enfrentado a una creciente competencia por el negocio del Pentágono por parte de xAI de Elon Musk, que acaba de obtener la aprobación para trabajos clasificados, así como de sus rivales OpenAI y Gemini de Google.
El CEO de OpenAI, Sam Altman, también se había opuesto al Pentágono, diciendo a los empleados en un memorando visto por Bloomberg que su empresa estaba hablando con funcionarios de defensa sobre el uso de sus modelos con límites similares. “Nos gustaría intentar ayudar a desescalar las cosas”, escribió en el memorándum.
Es casi seguro que la medida provocará la reacción de Silicon Valley, donde los trabajadores se unieron al bando de Anthropic. Los trabajadores de varias grandes empresas tecnológicas, como Amazon.com Inc. (AMZN) y Microsoft Corp. (MSFT), habían pedido a sus empleadores que rechazaran las exigencias del Pentágono de un uso sin restricciones de los productos de IA.
El jueves, Amodei había dejado claro que la empresa se mantenía firme. “Estas amenazas no cambian nuestra posición: no podemos, en conciencia, acceder a su petición”, dijo en un comunicado.
Ver más: Anthropic e Infosys construirán agentes de IA personalizados para empresas
Eso provocó una diatriba vespertina en las redes sociales de Emil Michael, subsecretario de Defensa para Investigación e Ingeniería, que escribió que Amodei “es un mentiroso y tiene complejo de Dios”.
“No quiere otra cosa que intentar controlar personalmente a las Fuerzas Armadas de EE.UU. y está de acuerdo en poner en peligro la seguridad de nuestra nación”, escribió Michael.
La disputa estalló apenas unas semanas después de que el Pentágono publicara una nueva estrategia sobre inteligencia artificial que pedía convertir a los militares en una fuerza “AI-first” aumentando la experimentación con modelos de frontera y reduciendo las barreras burocráticas para su uso.
El planteamiento instaba específicamente al Departamento de Defensa a elegir modelos que estén “libres de restricciones políticas de uso que puedan limitar las aplicaciones militares legales”. Los funcionarios de Defensa han reiterado que los militares utilizarían la tecnología de Anthropic dentro de los límites de la ley.
El viernes, Michael adoptó un tono más conciliador y declaró a Bloomberg Television que el departamento estaba dispuesto a continuar sus conversaciones con Anthropic.
“Mientras sean de buena fe, siempre estamos abiertos a las conversaciones”, dijo Michael. “Hasta esa fecha límite, estoy abierto a más conversaciones y así se lo dije”.
Lea más en Bloomberg.com













