Tecnología

Por qué expertos en IA piden paralizar entrenamiento de nuevos modelos poderosos

Creen que es necesario desarrollar protocolos para garantizar que los sistemas sólo se desarrollen cuando sus efectos puedan predecirse positivamente y sus riesgos gestionarse

ChatGPT
Por Jake Rudnitsky
29 de marzo, 2023 | 09:50 AM

Bloomberg — Destacados expertos e investigadores vinculados a la inteligencia artificial se han unido a para pedir que se detenga el desarrollo de sistemas de IA más potentes que la última iteración de ChatGPT, la 4, se lanzó recientemente.

Los firmantes, más de 1.100, creen que es necesario desarrollar protocolos de seguridad compartidos para garantizar que los sistemas de IA potentes sólo se desarrollen cuando sus efectos puedan predecirse positivamente y sus riesgos gestionarse. Entre los firmantes listados se encuentran Elon Musk y Steve Wozniak, cofundador de Apple (AAPL), aunque su participación no pudo ser verificada inmediatamente.

La petición llega tras una serie de proyectos en los últimos meses que han demostrado capacidades impresionantes, como escribir correos electrónicos y crear arte. OpenAI presentó recientemente su GPT-4, una actualización de su chatbot potenciado por IA que puede contar chistes y aprobar el examen de abogacía de EE.UU. Sin embargo, los firmantes sostienen que la actual carrera por desarrollar sistemas de IA más potentes está fuera de control y que nadie puede predecir ni controlar de forma fiable los efectos de estos sistemas.

Elon MuskFotógrafo: Liesa Johannssen-Koppitz/Bloombergdfd

En una carta abierta publicada en el sitio web del Future of Life Institute, los firmantes piden una pausa de seis meses en el entrenamiento de potentes sistemas de IA para permitir el desarrollo de protocolos de seguridad compartidos. El llamamiento a una pausa ha obtenido un apoyo significativo dentro de la industria.

PUBLICIDAD

Google, de Alphabet Inc. (GOOGL), y Microsoft (MSFT) son algunas de las empresas que utilizan inteligencia artificial para mejorar sus motores de búsqueda, mientras que Morgan Stanley (MS) lleva utilizando GPT-4 desde el año pasado para crear un chatbot para sus asesores patrimoniales.

Según la carta, los desarrolladores deben colaborar con los responsables de formular políticas para crear nuevos sistemas de gobernanza y organismos de supervisión de la IA. En ella se pedía a los gobiernos que intervinieran en el desarrollo de sistemas de IA si los principales actores no acordaban de forma inminente una pausa pública y verificable.

VER +
La inteligencia artificial está en auge, pero también su huella de carbono

“La investigación y el desarrollo de la inteligencia artificial deben centrarse en conseguir que los potentes sistemas actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales”.

PUBLICIDAD

Yoshua Bengio, fundador y director científico del instituto canadiense de investigación sobre IA Mila, firmó la petición, según un comunicado de prensa del instituto. Y Emad Mostaque, fundador y consejero delegado de Stability AI, confirmó a Bloomberg que había firmado la petición.

El Future of Life Institute es una organización sin ánimo de lucro que busca mitigar los riesgos asociados a las tecnologías potentes y cuenta con la Musk Foundation como su mayor contribuyente.

--Con la colaboración de Rachel Metz.

Lea más en Bloomberg.com