Normas de Meta sobre contenidos falsos son “incoherentes”: Consejo de Supervisión

Las críticas de la junta se produjeron después de revisar la decisión de Meta de dejar publicado un video manipulado del presidente de EE.UU.

Meta
Por Alex Barinka
10 de febrero, 2024 | 02:00 AM

Bloomberg — El Consejo de Supervisión independiente de Meta Platforms Inc. (META) estuvo de acuerdo con la reciente decisión de la compañía de mantener en la plataforma un video engañoso del presidente de Estados Unidos, Joe Biden, pero criticó sus políticas sobre contenido generado por inteligencia artificial como “incoherentes” y demasiado limitadas.

El consejo, que fue establecido en 2020 por la dirección para revisar de manera independiente algunas de las decisiones más significativas de moderación de contenido de la compañía, instó a Meta a actualizar rápidamente sus políticas antes de las elecciones generales de Estados Unidos de 2024.

VER +
Redes sociales de Meta son un “foco” de estafas financieras, según Revolut

“La Junta está preocupada por la política actual de contenidos manipulados, por considerarla incoherente, carente de justificación persuasiva y centrada de forma inadecuada en cómo se han creado los contenidos, en lugar de en los daños específicos que pretende prevenir, como la perturbación de los procesos electorales”, señaló la organización en un comunicado.

Las críticas de la junta se produjeron después de revisar la decisión de Meta de dejar publicado un video manipulado de Biden, que fue editado para que pareciera que estaba tocando inapropiadamente el pecho de su nieta adulta. El video incluía un pie de foto que se refería a Biden como “pedófilo”.

PUBLICIDAD

La Junta de Supervisión estuvo de acuerdo en que el video no infringía las políticas de Meta sobre contenidos manipulados, pero dijo que esas políticas son demasiado limitadas e insuficientes. El Consejo también recomendó a Meta dejar de retirar los contenidos alterados que no infrinjan ninguna otra política contra contenidos nocivos y que, en su lugar, empezara a etiquetarlos y dejarlos colgados.

VER +
Senadores arremeten contra los CEO de Meta, X y TikTok por gestión de seguridad

“Estamos revisando las recomendaciones del Consejo de Supervisión y responderemos públicamente dentro de los 60 días de acuerdo con los estatutos”, dijo un portavoz de Meta. La compañía no está obligada a seguir las recomendaciones del consejo y, a veces, ha ignorado sus consejos.

En enero, una oleada de contenido deepfake de personas famosas mostró al público y a los legisladores la rapidez con la que el contenido manipulado puede aparecer en línea con la ayuda de nuevas herramientas de inteligencia artificial. Imágenes explícitas de Taylor Swift inundaron la plataforma social X, anteriormente conocida como Twitter, mientras que se enviaron llamadas falsas de voz de Biden a los votantes antes de las primarias de New Hampshire, instándoles a no votar.

PUBLICIDAD

La política actual de Meta solo bloquea videos falsos de personas diciendo cosas que no dijeron. No cubre representaciones de personas haciendo cosas que no hicieron, como el post de Biden, y se aplica explícitamente solo a videos creados con herramientas de inteligencia artificial. El contenido que ha sido editado sin usar IA, como repetir o invertir un clip de video, podría ser engañoso para el usuario promedio, pero no está prohibido.

VER +
Meta refuerza configuración de mensajes para adolescentes tras debate sobre seguridad

El consejo recomendó que Meta expanda sus políticas para cubrir medios manipulados que retraten una acción que una persona realmente no haya tomado y aborde los audios falsos. También instó a la compañía a dejar claro qué daños busca prevenir, como la interferencia en el proceso de votación, y a centrarse más en esos daños en lugar de si el contenido fue creado con herramientas de IA o no.

“Como está, la política no tiene mucho sentido”, dijo Michael McConnell, el copresidente del consejo, en un comunicado. “Prohíbe videos alterados que muestran a personas diciendo cosas que no dicen, pero no prohíbe publicaciones que representan a una persona haciendo algo que no hizo. Solo se aplica a video creado mediante IA, pero deja pasar otro contenido falso”.

Meta, junto con compañías similares como X y TikTok de ByteDance Ltd., se enfrentará a una cantidad cada vez mayor de medios manipulados a medida que mejora la tecnología de IA y las elecciones se acercan. Meta implementó por primera vez su política antes de las elecciones de 2020, como parte de un esfuerzo más amplio de la compañía para combatir la desinformación relacionada con las elecciones después de que la campaña de Estados Unidos en 2016 expuso cómo se podían manipular las redes sociales.

En muchos sentidos, este tipo de situación es exactamente por qué se creó el Consejo de Supervisión. Este organismo independiente, compuesto por académicos y otras personas con experiencia en políticas públicas, está financiado por Meta, pero tiene la intención de ejercer un control sobre el poder de la compañía sobre el contenido. En el pasado, el consejo ha revisado problemas en Facebook e Instagram relacionados con la desinformación electoral y publicaciones relacionadas con drogas. Ratificó la suspensión de Donald Trump por parte de Meta luego del asalto al Capitolio el 6 de enero de 2021, al mismo tiempo que criticó la implementación de la suspensión por parte de la compañía.

Lea más en Bloomberg.com