El plan de la Casa Blanca sobre inteligencia artificial es todo menos eso

PUBLICIDAD
IA
Por Dave Lee
26 de marzo, 2026 | 09:05 AM

La Casa Blanca tiene ideas para un plan sobre inteligencia artificial. Estas ideas se dieron a conocer el viernes en el Marco de Política Nacional para la IA de la administración, una “hoja de ruta” para la legislación, según líderes republicanos de la Cámara de Representantes, diseñada para ayudar a Estados Unidos a “derrotar” a China y proteger a la infancia.

En realidad, se trata de un plan para que las empresas de IA continúen con sus negocios como siempre. El único obstáculo entre ellas y sus ambiciosos objetivos son los estados que están promulgando sus propias normas, como deberían seguir haciéndolo.

PUBLICIDAD

Este marco sobre el uso de la IA surge nueve meses después del revuelo que causó una propuesta de enmienda a la “Big Beautiful Bill” (Ley fiscal), que hubiese prohibido a los estados establecer sus propias medidas de protección durante 10 años.

Dicha iniciativa fracasó cuando los senadores de ambos partidos votaron de forma abrumadora en contra. Posteriormente, un intento de incluirla a toda costa en un proyecto de ley de gastos de defensa corrió la misma suerte.

En diciembre, el presidente Donald Trump firmó un decreto ejecutivo amenazando con retener miles de millones de dólares en fondos para infraestructuras de banda ancha a los estados que continuaran con la regulación de la IA.

PUBLICIDAD

Al parecer, no ha servido de disuasión, ya que los estados están avanzando con medidas como la SB 53 de California y la RAISE Act de Nueva York, dos leyes que imponen requisitos de transparencia a los modelos de IA de vanguardia.

Es entendible que las empresas de IA se muestren molestas por el mosaico legislativo que, según ellas, corre el riesgo de frenarlas en la carrera mundial por la inteligencia artificial.

Sin embargo, a los legisladores estatales les basta con fijarse en cómo el Congreso ha gestionado de manera desastrosa las redes sociales, al no aprobar ninguna ley significativa, para imaginarse cómo podrían ir las cosas con la IA.

El marco anunciado este viernes confirma sus temores de que, en caso de que se apruebe alguna legislación sobre inteligencia artificial, esta carecerá de fuerza, lo que permitirá a las empresas de IA evadir sus responsabilidades clave en materia de seguridad, propiedad intelectual, infraestructura e impacto en los medios de vida.

PUBLICIDAD

En lo que respecta a la protección infantil, el lenguaje utilizado en el marco de la Casa Blanca parece riguroso, pero hace recaer en los padres la responsabilidad de supervisar el uso que sus hijos hacen de la inteligencia artificial.

A primera vista, esto podría parecer razonable: cada padre puede tener un enfoque diferente, al igual que sucede hoy en día con los smartphones, y no corresponde a OpenAI, Anthropic ni a nadie más determinar qué es lo adecuado para todos. No obstante, pedir a las empresas de IA que “proporcionen a los padres y tutores herramientas sólidas” equivale a eludir la responsabilidad.

No se puede esperar que los padres estén al día del uso que hacen sus hijos de la IA, en un contexto en el que constantemente surgen nuevas apps y casos de uso, y en el que las señales de un uso peligroso son complicadas, si no imposibles, de reconocer hasta que, por desgracia, ya es demasiado tarde.

Tal y como dice Brendan Steinhauser, CEO de la Alliance for Secure AI, este endeble marco de IA “no establece ninguna vía de responsabilidad para los desarrolladores de IA ante los daños ocasionados por sus productos”.

Para quienes se preocupan por los efectos de la inteligencia artificial sobre el valor de la propiedad intelectual, la tecnología ya es capaz de escribir bastante bien y crear melodías pegadizas; este marco ofrece una protección mínima.

Centra su atención en la simple cuestión de los resultados que constituyen una infracción (la reproducción de material protegido por derechos de autor) y hace caso omiso de las implicaciones que conlleva el robo generalizado de obras originales para construir, en primer lugar, los modelos de IA. El marco deja la decisión en manos de los tribunales.

Se trata de una evasiva: varios jueces, así como la Oficina de Derechos de Autor de EE.UU., han expresado claramente que desearían que el Congreso examinara si la política de derechos de autor, cuya revisión más reciente data de 1976, necesita una revisión. (Respuesta: sí, la necesita).

En materia de infraestructura, el marco normativo anuncia el reciente compromiso firmado por grandes empresas tecnológicas de evitar que la construcción de centros de datos afecte las facturas de servicios públicos de los residentes locales. El objetivo es loable, pero su implementación práctica es dudosa.

“El compromiso carece de un mecanismo de auditoría, de términos definidos y, en definitiva, de fuerza vinculante”, escribió Nick Zenkin, analista del sector energético.

Aunque la promesa logre mantener las tarifas bajas, el marco de la inteligencia artificial detalla cómo esas promesas vagas conllevan una importante contraprestación.

El Congreso debe “agilizar los permisos federales para la construcción de infraestructura de IA”, aconseja, en un momento en que comunidades de todo el país se movilizan masivamente para protestar contra la rápida construcción de las ruidosas, contaminantes, derrochadoras de energía y que generan escasos empleos que impulsan la IA.

En cuanto a la protección contra los daños de la IA más sofisticada y potencialmente peligrosa, un principio fundamental de la legislación estatal, sugiere que debería ser responsabilidad del Congreso dotar a las agencias de suficientes expertos en modelos de vanguardia como protección contra usos peligrosos.

La experiencia en el gobierno es positiva, pero el marco no especifica hasta qué punto las empresas de inteligencia artificial deben acatar las conclusiones de estos expertos ni qué acceso a la tecnología patentada se les debe otorgar.

Como ayuda adicional para mejorar los resultados financieros de las empresas, el marco propone que el Congreso ofrezca subvenciones e incentivos fiscales para “apoyar una mayor implementación de herramientas de inteligencia artificial en toda la industria de Estados Unidos”.

Tal como está redactado, el marco regulatorio es menos una hoja de ruta para la regulación y más una lista de deseos para las empresas de IA. Esto no sorprende, dado que su principal artífice, David Sacks, el inversor de capital riesgo convertido en asesor de inteligencia artificial de la Casa Blanca, es uno de los promotores más destacados de Silicon Valley.

Los defensores del sector tecnológico han aclamado el marco como el primer paso para establecer la claridad necesaria para desarrollar y escalar la IA lo más rápido posible. Los observadores más pragmáticos del auge de la inteligencia artificial ven una oportunidad desaprovechada.

No hay mejor momento que ahora para establecer regulaciones estrictas pero justas sobre la inteligencia artificial y su impacto en nuestras vidas. A partir de ahora, las empresas solo se volverán más poderosas y nuestra economía más dependiente de ellas.

Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com

PUBLICIDAD