El logo de ChatGPT
Tiempo de lectura: 3 minutos

Bloomberg Opinión — Al menos desde Esquilo, la humanidad viene advirtiéndose a sí misma de los peligros de la tecnología sin límites. La semana pasada, más de 1.000 investigadores y ejecutivos se sumaron a este canon con una carta abierta en la que piden una pausa en la investigación sobre inteligencia artificial.

Es una lectura aleccionadora. La carta advierte que la IA puede (entre otras cosas) poner en peligro puestos de trabajo, difundir propaganda, socavar el discurso civil, incluso llevar a la “pérdida de control de nuestra civilización”. Pide una moratoria de seis meses para la investigación avanzada en este campo y propone que los líderes de la industria elaboren protocolos de seguridad y sistemas de gobernanza para frenar los riesgos potenciales.

Muchos de los firmantes son expertos en IA. Sus preocupaciones deben tomarse en serio. Sin embargo, su planteamiento parece más perjudicial que beneficioso.

El problema no es la “pausa” en sí. Incluso si los firmantes pudieran imponer de algún modo una orden de suspensión del trabajo en todo el mundo, seis meses probablemente no harían mucho por detener los avances en IA. Si una moratoria breve y parcial llama la atención sobre la necesidad de pensar seriamente en la seguridad de la IA, es difícil ver mucho daño. Por desgracia, parece probable que una pausa se convierta en una oposición más generalizada al progreso.

PUBLICIDAD

Consideremos la visión más amplia del mundo expresada en este documento. Los firmantes piden “autoridades reguladoras nuevas y capaces”, un “sólido ecosistema de auditoría y certificación”, “instituciones bien dotadas de recursos para hacer frente a las dramáticas perturbaciones económicas y políticas” que puede causar la IA, y mucho más. Y añaden: “Sólo deberían desarrollarse sistemas de IA potentes cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables”.

Esta es una fórmula para el estancamiento absoluto. Nadie puede estar completamente seguro de que una determinada tecnología o aplicación sólo tendrá efectos positivos. La historia de la innovación es una historia de ensayo y error, de riesgo y recompensa. Una de las razones por las que Estados Unidos lidera el mundo de la tecnología digital -por la que alberga prácticamente todas las mayores plataformas tecnológicas- es que no limitó preventivamente la industria con una regulación bienintencionada pero dudosa. No es casualidad que todas las empresas líderes en IA sean también estadounidenses.

Además, ralentizar el progreso de la IA conlleva sus propios riesgos. A pesar de todo el pesimismo, no hay que olvidar que es probable que esta tecnología haga que el mundo sea más rico, más sano, más inteligente y más productivo en las próximas décadas. En 2030, podría aportar más de 15 billones de dólares a la economía mundial. En el horizonte se vislumbran avances en medicina, biología, climatología, educación, procesos empresariales, fabricación, servicio al cliente, transporte y mucho más. Cualquier nueva norma debe sopesarse con el vasto potencial de estos esfuerzos.

PUBLICIDAD

La investigación sobre IA tampoco avanza en el vacío. La industria ya opera dentro de parámetros legales -regímenes de responsabilidad, leyes de protección del consumidor, agravios, etc.- que responden a daños potenciales. Las empresas tienen todos los incentivos para garantizar la seguridad de sus productos. Las asociaciones profesionales están elaborando códigos de conducta y marcos éticos. Lejos de la “carrera descontrolada” de la que hablan los firmantes de la carta, el negocio de la IA está limitado por la ley, la política y la opinión de los consumidores, como cualquier otro.

Eso no quiere decir que haya que ignorar los peligros potenciales. Pero en lugar de intentar anticiparse a todos los riesgos, los reguladores deben dejar que florezca el espíritu empresarial mientras se realizan esfuerzos paralelos para controlar y mejorar la seguridad de la IA. Los gobiernos deberían financiar la investigación de los riesgos de la IA y publicar las mejores prácticas; el Marco de Gestión de Riesgos de la Inteligencia Artificial elaborado por el Instituto Nacional de Estándares y Tecnología es un ejemplo. Los legisladores deben garantizar la transparencia de las empresas y la protección de los consumidores, al tiempo que se mantienen alerta ante cualquier nueva amenaza.

Es natural preocuparse por las nuevas tecnologías. Pero la riqueza y abundancia de la sociedad estadounidense se debe en gran medida a los riesgos asumidos en el pasado, con un espíritu de apertura y optimismo. La revolución de la IA no merece menos.

--Editores: Timothy Lavin, Romesh Ratnesar.