ChatGPT enfrenta un mayor escrutinio de parlamentarios de la UE en propuesta sobre IA

Esta tecnología ha generado preocupaciones sobre la posibilidad de difundir información errónea y violar las leyes de protección de datos y derechos de autor

El logotipo de ChatGPT en un ordenador portátil arreglado en el barrio de Brooklyn de Nueva York, EE.UU., el jueves 9 de marzo de 2023.
Por Jillian Deutsch
14 de mayo, 2023 | 12:15 PM

Bloomberg — La UE avanzó hacia un mayor grado de control sobre las aplicaciones de IA tales como ChatGPT, de OpenAI, y Bard, de Google.

Los legisladores de las comisiones de mercado interior y justicia de la Unión Europea decidieron este jueves obligar a las compañías que desarrollen programas " de base” de inteligencia artificial a elaborar valoraciones de riesgo, sintetizar el contenido protegido por propiedad intelectual empleado para el entrenamiento de sus modelos y garantizar que sus clientes estén informados de si interaccionan con la inteligencia artificial o están viendo un “deepfake” (engaño). Asimismo, se votó a favor de la prohibición de la utilización de la inteligencia artificial en tiempo real con el fin de reconocer a personas públicamente.

VER +
¿En qué consiste el marco europeo que regula la IA y por qué es controvertido?

En la votación sobre la Ley de IA de la Unión Europea, un total de 84 parlamentarios votó a favor de los mecanismos de control adicionales, frente a 7 que lo hicieron en contra y 12 abstenciones.

El resultado de la votación de este jueves todavía está lejos de ser definitivo. El pleno del Parlamento Europeo someterá a votación la versión íntegra de la Ley de Inteligencia Artificial en junio y después deberá alcanzar un texto definitivo que será negociado con la Comisión y los 27 países miembros de la Unión Europea. No obstante, sus autores aspiran a conseguir que otros gobiernos establezcan ciertos límites a esta tecnología potencialmente desestabilizadora.

PUBLICIDAD

“Este enfoque puede generar cierto efecto Bruselas en términos de no solo influir en las prácticas regulatorias del mundo, sino también hacer que el resto del mundo inicie la discusión”, Brando Benifei, uno de los autores principales de la Ley de IA en el parlamento, dijo a los periodistas antes de la votación.

Los responsables de polítcas de todo el mundo están tratando de mitigar los riesgos de un auge de las herramientas generativas de inteligencia artificial que permiten a las personas crear contenido, como texto e imágenes, con indicaciones simples. El CEO de OpenAI, Sam Altman, testificará ante el Senado de los EE.UU. la próxima semana, hablando ante el subcomité responsable de regular los desarrollos en IA a medida que comienza a explorar posibles estándares para la industria. Altman ha pedido a los reguladores que aborden los posibles daños a la sociedad a medida que las grandes empresas tecnológicas se apresuran a desarrollar y lanzar versiones más avanzadas de modelos de IA.

VER +
España, la punta de lanza del reglamento europeo para la inteligencia artificial

El debate sobre si la UE debería regular específicamente la IA generativa en su Ley de inteligencia artificial comenzó después de que se lanzó una versión mejorada de ChatGPT a principios de este año, que realiza tareas humanas de manera convincente, como realizar pruebas, escribir correos electrónicos y producir códigos de computadora. La tecnología generó preocupaciones de que la IA generativa podría difundir información errónea y violar las leyes de protección de datos y derechos de autor.

PUBLICIDAD

En marzo, expertos en IA y líderes de la industria, incluidos Elon Musk, el profesor de informática de la Universidad de California Berkeley, Stuart Russell, y el cofundador de Apple Inc. (AAPL) Steve Wozniak, pidieron a los desarrolladores que se tomaran un descanso de seis meses del entrenamiento de modelos potentes para permitir la desarrollo de protocolos de seguridad compartidos.

Lea más en Bloomberg.com