ChatGPT ha obtenido el derecho a autorregularse. ¿Qué podría salir mal?

PUBLICIDAD
Sunak y Altman
Por Parmy Olson
18 de diciembre, 2025 | 06:33 AM

Rishi Sunak, que en su día fue primer ministro británico, pensaba que la IA era tan peligrosa que en 2023 organizó la primera “Cumbre sobre Seguridad de la IA” del planeta, a la que invitó a políticos y a Elon Musk, quien desde hacía tiempo veía con pesimismo el futuro de la inteligencia artificial, para que hablaran sobre las medidas de seguridad que debían tomarse ante el auge que había provocado ChatGPT.

Transcurridos dos años, su opinión ha cambiado bastante.

PUBLICIDAD

“En este caso, lo correcto es no regular”, me dijo el mes pasado en el Foro de Nueva Economía de Bloomberg, asegurando que empresas como OpenAI estaban “trabajando muy bien” con investigadores de seguridad londinenses que probaban sus modelos para determinar posibles daños. Esas compañías se ofrecían como voluntarias para ser auditadas.

Cuando le indiqué que quizá cambiarían de opinión en el futuro, Sunak respondió: “De momento no hemos llegado a ese punto, lo cual es positivo”. Pero, ¿qué pasará cuando lo hagamos?

El giro de 180° de Sunak, que pasó de decir que el Reino Unido debería ser la “cuna de la regulación de la seguridad de la inteligencia artificial” a no desear ninguna legislación en absoluto, refleja una tendencia más amplia que se está produciendo en los gobiernos de todo el mundo.

PUBLICIDAD

La razón subyacente es la necesidad de aprovechar una tecnología que podría revitalizar las economías estancadas y la percepción de que no se necesitan normas estrictas si no existen pruebas claras de que cause un daño generalizado.

Sin embargo, esperar a que se produzca una catástrofe para empezar a regular es una jugada arriesgada en un momento en el que las nuevas tecnologías se están expandiendo a gran velocidad. ChatGPT podría ser el software de más rápido crecimiento de la historia, ya que solo a tres años de su lanzamiento, el 10% de la población del mundo lo usa con regularidad.

También es posible que esté remodelando nuestros cerebros. Su propietario, OpenAI, ha sido demandado por las familias de diversas personas que han sufrido espirales delirantes o se han vuelto suicidas después de pasar horas en ChatGPT. Un grupo activista ha recabado testimonios de más de 160 personas que aseguran que ha perjudicado su salud mental.

Entre tanto, la inteligencia artificial está causando graves problemas con los deberes escolares, consolidando estereotipos, desencadenando una nueva clase de dependencia y participando en robos de material de carácter artístico.

Todo esto ha quedado relegado a un segundo plano en medio de un ciclo de entusiasmo tecnológico al que incluso antiguos defensores de la seguridad se han sumado.

Sunak, por ejemplo, ha desempeñado funciones de asesoríaen las empresas de inteligencia artificial Anthropic PBC y Microsoft Corp. (MSFT), y si bien ha prometido donarsu salario a organizaciones benéficas, esas relaciones serán valiosas si abandona la política.

Musk, quien se preocupaba por los riesgos existenciales de la inteligencia artificial, ha guardado silencio al respecto desde la fundación de xAI Corp., la empresa creadora del chatbot Grok. No obstante, dejar de lado la cautela en la búsqueda de beneficios económicos inciertos podría volverse en contra de los gobiernos.

Tanto Occidente como Asia parecen haber entrado en esta era de indulgencia regulatoria.

Estados Unidos pasó de emitir una orden ejecutiva bajo el mandato del presidente Joe Biden para construir una IA más segura en 2023, a prohibir esa orden bajo el mandato de Donald Trump.

La administración actual está acelerando la construcción de centros de datos y la exportación de chips para vencer a China, e intentando bloquear leyes estatales de IA para que las empresas tecnológicas puedan prosperar.

Al mismo tiempo, multimillonarios de Silicon Valley como Marc Andreessen han comprometido decenas de millones de dólares para presionar contra futuras restricciones a la IA.

Gran Bretaña tiene un historial de creación de regulaciones tecnológicas rápidas y sensatas, pero también parece improbable que tome medidas drásticas contra la IA generativa.

La Unión Europea ha retrasado algunas de las disposiciones más estrictas de su Ley de IA hasta 2027, mientras que el Código de Prácticas de dicha ley se ha pospuesto. Las normas europeas de privacidad digital sirvieron en su día de modelo para otros gobiernos, pero parece improbable que el llamado efecto Bruselas afecte a la inteligencia artificial.

China no es una excepción a esta tendencia liberal. El Partido Comunista (PCCh) del país ha implementado políticas destinadas a impulsar el crecimiento de las empresas nacionales de IA.

Pese a las estrictas normas que exigen a las empresas de redes sociales registrar sus algoritmos para prevenir el malestar social, normas similares solo se aplican a los chatbots o herramientas de IA que generan imágenes o videos. Estas empresas deben etiquetar los deepfakes y probar sus herramientas para asegurarse de que no generen contenido ilegal o políticamente sensible.

Pero los chatbots de consumo masivo son solo una pequeña parte del mercado chino de IA. Los sectores de IA más importantes del país se encuentran en áreas como la automatización industrial, la logística, el comercio electrónico y la infraestructura de IA.

Las compañías que trabajan en este campo obtienen generosas deducciones fiscales por investigación y desarrollo, devoluciones del IVA y un impuesto de sociedades más bajo, según un informe de investigación de 2025 elaborado por Angela Zhang, profesora de derecho en la Universidad del Sur de California y autoridad líder en regulación tecnológica china.

La postura más blanda de China hacia las empresas de IA se debe a que el PCCh también es un cliente importante de sus herramientas, en particular de tecnologías de vigilancia como el reconocimiento facial.

Pekín ha invertido demasiado en inteligencia artificial como para frenar su desarrollo, y las restricciones estadounidenses a la exportación de chips y la crisis económica nacional solo han impulsado a China hacia el crecimiento más que hacia la regulación.

Esto “ofrece poco valor protector al público chino”, argumenta Zhang. Ella y otros investigadores de seguridad han advertido sobre los desastres provocados por la IA, causados por la históricamente laxa estrategia de China ante los peligros, desde los patógenos diseñados con IA hasta la interrupción en las redes eléctricas y los oleoductos.

La opinión predominante entre los gobiernos es que las empresas de IA deberían poder autoregularse. “Miren, no creo que nadie quiera lanzar algo al mundo que crea que realmente causaría un daño significativo”, dijo Sunak.

No obstante, a menudo surgen consecuencias imprevistas cuando los tecnólogos parten con las mejores intenciones para la humanidad. La autorregulación funciona, hasta que deja de funcionar.

Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com

PUBLICIDAD