Bloomberg — Según fuentes familiarizadas con el asunto, la administración Trump se está preparando para ordenar a las agencias estadounidenses que colaboren con empresas de inteligencia artificial para proteger las redes de los ciberataques basados en IA, aunque la directiva no llegaría a exigir la aprobación del gobierno para los modelos más avanzados.
Un borrador de orden ejecutiva del presidente Donald Trump renovaría los programas existentes de intercambio de información sobre ciberseguridad para incluir a las empresas de IA y abordar las amenazas que plantea la tecnología emergente, dijeron las personas, que hablaron bajo condición de anonimato para discutir procedimientos confidenciales.
Ver más: Wall Street prepara ETF para apostar sobre elecciones, tasas o una recesión: así funcionarán
Según las fuentes, esos cambios facilitarían la detección y corrección de vulnerabilidades en redes federales, estatales y locales, así como en infraestructuras críticas de EE.UU., sin necesidad de exigir una nueva supervisión de los modelos de IA.
No está claro cuándo firmará Trump la medida, que aún está sujeta a cambios. Aún no se ha informado de los detalles del último plan para la orden, ni de la evolución de las ideas políticas que se habían considerado pero que probablemente no sobrevivan a las deliberaciones internas de la Casa Blanca.
En respuesta a una solicitud de comentarios, un funcionario de la Casa Blanca calificó la discusión sobre posibles órdenes ejecutivas de especulación y dijo que cualquier anuncio político vendría directamente de Trump. Los portavoces de los principales desarrolladores de IA OpenAI y Anthropic PBC no respondieron inmediatamente a los mensajes en busca de comentarios.
La directiva está tomando forma aproximadamente un mes después de que Anthropic revelara que su revolucionario modelo Mythos era extraordinariamente hábil para encontrar vulnerabilidades en la red y podría suponer un importante riesgo para la ciberseguridad. Por ahora, la empresa ha limitado el acceso a Mythos a un puñado de grandes empresas tecnológicas y de Wall Street, en medio de una alarma mundial más amplia sobre las nuevas amenazas que podría suponer para los sistemas críticos.
Según las fuentes, la orden prevista no exigiría a las empresas que permitieran al gobierno probar sus modelos antes de su lanzamiento. La idea inicial de exigir la aprobación gubernamental de los nuevos sistemas de IA está perdiendo popularidad, y la directiva ahora hace hincapié en la participación voluntaria de los desarrolladores, añadieron las fuentes.
La jefa de gabinete de Trump, Susie Wiles, que ha empezado a asumir un papel más directo en la configuración de la política de IA, dijo a última hora del miércoles que el gobierno estadounidense se abstendría de tener favoritos en la carrera de la IA.
“Cuando se trata de IA y ciberseguridad, el presidente Trump y su administración no están en el negocio de elegir ganadores y perdedores”, escribió Wiles en X. “Esta administración tiene un objetivo: asegurar que la mejor y más segura tecnología se despliegue rápidamente para derrotar todas y cada una de las amenazas”.
Ver más: Solicitudes iniciales de subsidio de desempleo en EE.UU. repuntan levemente, pero siguen bajas
Los funcionarios de la administración Trump han estado presionando para que Mythos esté más ampliamente disponible para que las agencias federales prueben sus redes en busca de fallos de seguridad. Los funcionarios de la Casa Blanca rechazaron recientemente los planes de Anthropic de distribuir Mythos a varias docenas de empresas y organizaciones adicionales, alegando problemas de seguridad.
El avance de Mythos ha impulsado a los funcionarios de la administración a acelerar los esfuerzos existentes para elaborar una política de IA que aborde una serie de cuestiones de seguridad. Wiles y otros funcionarios de la administración se reunieron el 17 de abril con el CEO de Anthropic, Dario Amodei, donde se trataron temas como Mythos.
El secretario del Tesoro, Scott Bessent, también se ha pronunciado sobre los riesgos cibernéticos que presenta Mythos, describiendo un papel para EE.UU. en la mitigación de las amenazas. “Lo que estamos decididos a hacer es trabajar con nuestras empresas de IA para permitirles seguir innovando, pero nuestro encargo al gobierno estadounidense es mantener la seguridad, y aquí hay un cálculo muy importante entre innovación y seguridad”, dijo en Fox News el pasado domingo.
Las especulaciones en torno a si la directiva obligaría a probar los modelos antes de su despliegue se intensificaron esta semana a raíz de un informe del New York Times sobre los planes para la orden. El director del Consejo Económico Nacional, Kevin Hassett, dio a entender el miércoles que la medida incluiría un llamamiento a probar los modelos antes de su lanzamiento, comparándolo con el control de los productos farmacéuticos.
EE.UU. ya cuenta con un programa voluntario para evaluar los sistemas de IA antes de su lanzamiento, y el martes el Departamento de Comercio anunció una ampliación de la iniciativa. Google, de Alphabet Inc. (GOOGL), Microsoft Corp. (MSFT) y xAI han acordado dar al gobierno estadounidense acceso a sus modelos para evaluar las capacidades de los sistemas y ayudar a mejorar la seguridad. OpenAI y Anthropic ya formaban parte de la iniciativa, dirigida por el Centro de Normas e Innovación en IA del departamento.
Chris Lehane, responsable de asuntos globales de OpenAI, dijo esta semana que la empresa está permitiendo que el centro pruebe su próximo modelo GPT-5.5-Cyber. “Nos estamos asociando con la Casa Blanca y la administración en general en una estrategia de despliegue responsable, incluyendo un libro de jugadas para ayudar a poner estas capacidades en manos de los gobiernos federales, estatales y locales, aliados y socios de infraestructuras críticas”, escribió en LinkedIn.
Ver más: Bonos de EE.UU. cerca de 5% dividen a Wall Street entre comprar la caída o mantener cautela
Los preparativos para la orden de Trump se desarrollan mientras el Pentágono sigue inmerso en una amarga disputa con Anthropic debido a la insistencia de la compañía en establecer salvaguardias para el uso militar de su tecnología. Tras el fracaso de las negociaciones contractuales en febrero, los funcionarios de defensa declararon a la compañía una amenaza para la cadena de suministro y establecieron un plazo de seis meses para dejar de usar Anthropic, que hasta principios de este año era el único proveedor de herramientas de IA autorizado para redes clasificadas.
La orden no nombraba a ninguna empresa específica de IA como socia, ni prohibía a Anthropic participar en el intercambio de información relacionada con las ciberamenazas. Anthropic está luchando contra la designación de riesgo de la cadena de suministro en los tribunales, y los funcionarios de defensa han señalado recientemente que consideran las capacidades cibernéticas del modelo Mythos de la empresa como una cuestión distinta.
Por otra parte, los funcionarios estadounidenses también han estado preparando un memorando para la adopción de la IA por parte de las agencias de seguridad nacional que exigiría el uso de múltiples proveedores para minimizar las vulnerabilidades de la cadena de suministro y exigiría a los contratistas que trabajan con el Pentágono que se atengan a la cadena de mando militar, según ha informado Bloomberg.
El momento de la publicación de ese memorando aún no está definido, y el documento no anularía la declaración del Pentágono sobre la cadena de suministro. Sin embargo, su redacción abordaría algunas de las preocupaciones planteadas por el Pentágono y Anthropic durante las cada vez más tensas negociaciones contractuales.
Estados Unidos ya facilita colaboraciones público-privadas centradas en la ciberseguridad, similares a la que se describe en la orden prevista. Estas colaboran principalmente a través del FBI y la Agencia de Seguridad de Infraestructuras y Ciberseguridad, que trabajan con empresas privadas para investigar ciberataques, mitigar daños y compartir información de inteligencia para facilitar la recuperación tras un ataque.
Según ese modelo, las empresas privadas aceptan cooperar porque mejora su propia seguridad. La orden judicial pendiente ofrecería incentivos similares para las empresas de inteligencia artificial.
Lea más en Bloomberg.com