OpenAI, Amazon y Google se comprometen a combatir el abuso de la IA en las elecciones de 2024

Las empresas se comprometieron a utilizar la tecnología para mitigar los riesgos del contenido electoral generado por IA

Por

Bloomberg — OpenAI, Amazon.com Inc. (AMZN), Google y otros 17 actores importantes en tecnología de inteligencia artificial han formado un consorcio para tratar de evitar que la IA se utilice para engañar a los votantes en las próximas elecciones globales.

Las empresas anunciaron el acuerdo en la Conferencia de Seguridad de Múnich el viernes, haciendo una serie de compromisos para tratar de detectar la desinformación electoral habilitada por IA, responder a ella y aumentar la conciencia pública sobre el potencial de engaño.

La proliferación de la IA ha hecho que la producción de imágenes, audio y videos falsos realistas sea ampliamente accesible, lo que genera temores de que la tecnología se utilice para engañar a los votantes en un año en el que las elecciones determinarán el liderazgo del 40% de la población mundial. El mes pasado, un mensaje de audio generado por IA que sonaba como el presidente Joe Biden intentó disuadir a los demócratas de votar en las elecciones primarias de New Hampshire.

Las empresas se comprometieron a utilizar la tecnología para mitigar los riesgos del contenido electoral generado por IA en el acuerdo, llamado el “Acuerdo Tecnológico para Combatir el Uso Engañoso de la IA en las Elecciones de 2024″. También se comprometieron a compartir información entre sí sobre cómo abordar a los actores maliciosos.

"La IA no creó el engaño electoral, pero debemos asegurarnos de que no ayude a que el engaño florezca", dijo Brad Smith, presidente de Microsoft Corp., en el comunicado de prensa que anunciaba el acuerdo.

Entre los firmantes se encuentran Adobe Inc. (ADBE), ByteDance Ltd.’s TikTok y International Business Machines Corp. (IBM), así como startups como Anthropic e Inflection AI. El acuerdo también incluyó a las compañías de redes sociales Meta Platforms Inc. (META), X y Snap Inc. (SNAP).

"La generación y distribución intencional y no revelada de contenido electoral engañoso de IA puede engañar al público de formas que ponen en peligro la integridad de los procesos electorales", dice el acuerdo.

A la luz del aumento de las falsificaciones realistas de las voces y semejanzas de los candidatos, el nuevo acuerdo tratará de limitar el contenido digital que falsifica las palabras o acciones de los candidatos políticos y otros actores en las elecciones.

Sin embargo, muchas empresas tecnológicas dicen estar preocupadas por el potencial de mal uso político del contenido generado por IA. Un sistema desarrollado por Meta inicialmente solo podrá detectar imágenes falsas, no audio o video, y podría pasar por alto aquellas que hayan sido despojadas de marcas de agua.

"Nuestra mente no está tranquila", dijo Sam Altman, director ejecutivo de OpenAI, el mes pasado en un evento de Bloomberg en el Foro Económico Mundial. "Vamos a tener que vigilar esto de cerca este año".

--Con la ayuda de Rachel Metz.

Lea más en Bloomberg.com