(Foto: Luke MacGregor/Bloomberg)
Tiempo de lectura: 4 minutos

En ocasiones, las maniobras de publicidad acaban siendo un fracaso. Un buen ejemplo es el aviso de una sola frase lanzado esta semana por el Centro para la Seguridad de la Inteligencia Artificial: “Atenuar el peligro de extinción como consecuencia de la inteligencia artificial ha de ser una gran prioridad global, al lado de otros peligros para la sociedad, como las pandemias y una posible guerra nuclear”.

El listado de firmantes es realmente notable, e incluye a numerosos ejecutivos e ingenieros de software de las más importantes compañías de inteligencia artificial. No obstante, y pese a su manifiesta franqueza, es poco probable que esta declaración suscite reacciones positivas.

Para empezar, el término “extinción” es un problema. Se considere o no que la evolución presente de los sistemas de inteligencia artificial supone un peligro de extinción, cosa que yo no creo, mientras más se emplee ese concepto, más posibilidades existirán de que el tema pase a formar parte de las prioridades de la seguridad nacional. Su objetivo principal es vencer a los oponentes extranjeros. Se apartará a los funcionarios de las agencias de regulación más rutinarias.

Además, los especialistas en seguridad nacional estadounidenses se muestran escépticos con respecto a la posibilidad de un convenio mundial destinado a poner límites a los sistemas de inteligencia artificial, ya que no creen que alguien vaya a vigilar y sancionar a China, Rusia u otros países (“hasta los Emiratos Árabes Unidos tienen un sistema poderoso en camino”). Así que cuanto más se diga que los sistemas de IA pueden ser superpoderosos, más insistirán los consejeros en materia de seguridad nacional en que la tecnología de Estados Unidos debe prevalecer en todo momento. Coincido en la importancia del dominio estadounidense, pero hay que reconocer que este razonamiento aboga por la aceleración de la investigación en inteligencia artificial, no por su desaceleración.

PUBLICIDAD

Un segundo problema con la declaración es que muchos de los firmantes son jugadores importantes en los desarrollos de IA. Entonces, una objeción de sentido común podría ser así: si está tan preocupado, ¿por qué no deja de trabajar en IA? Hay una respuesta perfectamente legítima: quieres seguir involucrado porque temes que, si te vas, se pondrá a cargo a alguien menos responsable, pero no me hago ilusiones de que este argumento triunfe. Como dicen en política, si explicas, pierdes.

La distribución geográfica de los signatarios también creará problemas. Muchos de los firmantes más conocidos se encuentran en la costa oeste de EE.UU., especialmente en California y Seattle. Hay un grupo de Toronto y unos pocos del Reino Unido, pero el medio oeste y el sur de los EE.UU. apenas están representados. Si yo fuera jefe de gabinete de un miembro del Congreso o cabildero político, me preguntaría: ¿Dónde están los banqueros comunitarios? ¿Dónde están los propietarios de los concesionarios de automóviles? ¿Por qué hay tan pocos estados y distritos de la Cámara representados en la lista?

Yo mismo no veo el movimiento de seguridad de la IA como un proyecto político de izquierda. Pero si todo lo que supiera fuera este documento, podría concluir que lo es. En resumen, la petición puede estar haciendo más para señalar la debilidad y la estrechez del movimiento que su fuerza.

PUBLICIDAD

Luego está la brevedad de la declaración misma. Tal vez este sea un movimiento audaz y ayudará a estimular el debate y generar ideas. Pero una visión alternativa es que el grupo no pudo ponerse de acuerdo en nada más. No hay un libro blanco que lo acompañe ni un conjunto de recomendaciones de política. Elogio la humildad de los firmantes, pero no su instinto político.

Una vez más, tenga en cuenta la percepción pública y política. Si algunos jugadores muy conocidos y muy inteligentes en un área determinada piensan que el mundo podría terminar, pero no hacen recomendaciones sobre qué hacer al respecto, ¿podrías simplemente ignorarlos por completo? (“¡Contáctame cuando lo hayas descubierto!”) ¿Qué pasaría si un grupo de científicos anunciara que un gran asteroide se dirige hacia la Tierra? Sospecho que tendrían algunas recomendaciones muy específicas, sobre temas como cómo desviar el asteroide y preparar las defensas.

Finalmente, la petición se equivoca al comparar el riesgo de la IA con “otros riesgos a escala social, como las pandemias y la guerra nuclear”. Incluso si está de acuerdo con este punto, ahora se reconoce comúnmente que, incluso después de más de 1 millón de muertes, EE.UU. no está ni remotamente preparado para la próxima pandemia. Eso es un gran fracaso, pero aun así: ¿Por qué agrupar su causa con un apestoso político? En cuanto a la guerra nuclear, los temores públicos están aumentando, pero no es un problema político importante. No niego que sea importante, solo cuestiono si tendrá el efecto galvanizador deseado.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com