Bloomberg — Anthropic PBC obtuvo una orden judicial que bloquea una prohibición de la administración Trump sobre el uso gubernamental de la tecnología de inteligencia artificial de la empresa, después de que el fabricante de chatbot Claude argumentara que la medida podría costarle miles de millones en ingresos perdidos.
La jueza de distrito estadounidense Rita F. Lin emitió una orden preliminar el jueves, poniendo en pausa el plan de la administración de cortar todos los lazos con Anthropic mientras se desarrolla una lucha legal en el tribunal federal de San Francisco. Ella puso la orden en suspenso durante siete días para dar al gobierno la oportunidad de apelar.
Ver más: Claude, de Anthropic, experimenta caída este lunes debido a una “demanda sin precedentes”
La empresa demandó a principios de este mes para bloquear una declaración del Departamento de Defensa de que Anthropic suponía una amenaza para la cadena de suministro de EE.UU., intensificando una disputa de alto riesgo sobre las salvaguardias de la tecnología de IA utilizada por los militares.
La startup quería garantías de que su IA no se utilizaría para la vigilancia masiva de estadounidenses o el despliegue de armas autónomas, mientras que el gobierno citó la seguridad nacional para argumentar que no podía aceptar ninguna restricción.
Lin cuestionó la justificación de la prohibición, diciendo que no parecía estar dirigida a los intereses de la seguridad nacional.
“Si la preocupación es la integridad de la cadena de mando operativa, el Departamento de Guerra podría simplemente dejar de utilizar Claude”, escribió el juez. “En lugar de eso, estas medidas parecen diseñadas para castigar a Anthropic”. Tal medida, “es la clásica represalia ilegal de la Primera Enmienda”, dijo.
Un portavoz del Pentágono no respondió inmediatamente a una solicitud de comentarios enviada fuera del horario de oficina.
En un comunicado, Anthropic acogió con satisfacción el fallo del juez. “Aunque este caso era necesario para proteger a Anthropic, a nuestros clientes y a nuestros socios, nuestro objetivo sigue siendo trabajar de forma productiva con el gobierno para garantizar que todos los estadounidenses se beneficien de una IA segura y fiable”, afirmó la empresa.
Anthropic afirma que se le están cerrando los contratos con el gobierno por discrepar con la administración y argumenta que los principios legales en juego afectan a todos los contratistas federales cuyas opiniones no gusten al gobierno. La administración Trump ha prometido una lucha legal para expulsar a Anthropic de todas las agencias gubernamentales estadounidenses.
Durante una audiencia ante Lin a principios de esta semana, un abogado del gobierno dijo que la confianza era un componente clave en cualquier relación que el ejército tiene con las empresas que le prestan servicios y que Anthropic destruyó esa confianza durante las negociaciones del contrato al tratar de dictar las políticas del Pentágono sobre el uso de la tecnología de IA.
El abogado argumentó que al gobierno le preocupa el riesgo de “sabotaje futuro” por parte de Anthropic, incluyendo cambios en el software de IA que el gobierno compra a la empresa.
Pero en su fallo, Lin dijo que el Departamento de Justicia de EE.UU. no tenía una “base legítima” para determinar que la firme postura de Anthropic respecto a las restricciones de su tecnología de IA podría llevarla a “convertirse en saboteadora”.
En la vista, un abogado de Anthropic señaló que el Pentágono puede revisar cualquier modelo de IA antes de desplegarlo, y que Anthropic no tiene forma de impedir que un modelo funcione, cambiar su funcionamiento, apagarlo o ver cómo lo utilizan los militares.
Ver más: Anthropic negocia nueva financiación con una valoración de hasta US$350.000 millones
Como parte de la lucha legal por la prohibición, Anthropic también presentó una demanda ante un tribunal de apelación de Washington, DC, centrada en una ley que regula los procedimientos para mitigar los riesgos de la cadena de suministro en las adquisiciones. En esa demanda, la empresa alegó que el Departamento de Defensa se excedió en su autoridad con acciones que fueron “arbitrarias, caprichosas y un abuso de discreción”.
El caso es Anthropic contra el Departamento de Guerra de EEUU, 26-cv-01996, Tribunal de Distrito de EEUU, Distrito Norte de California (San Francisco).
Con la colaboración de Katrina Manson.
Lea más en Bloomberg.com