Denuncian que apps para generar desnudos sin consentimiento siguen activas en Apple y Google

Las aplicaciones identificadas por el Tech Transparency Project se han descargado 483 millones de veces y han generado unos ingresos de US$122 millones, según el informe.

PUBLICIDAD
Apple y Google ofrecen aplicaciones para “desnudarse” a pesar de sus políticas en contra
Por Julia Love - Cecilia D´Anastasio

Bloomberg — Según un informe publicado el miércoles por el Tech Transparency Project, Apple Inc. (AAPL) y Google (GOOGL) han seguido ofreciendo aplicaciones móviles que permiten a los usuarios crear imágenes sexualizadas de personas sin su consentimiento, a pesar de sus políticas que prohíben este tipo de contenido.

De acuerdo con el grupo, una rama de investigación de la organización sin fines de lucro Campaign for Accountability, buscar términos como “desnudarse” y “desvestir” en las tiendas de aplicaciones de Apple y Google permite a los usuarios acceder a software que puede utilizarse para alterar imágenes de celebridades y otras personas, haciéndolas parecer desnudas o semidesnudas. Estas empresas también muestran anuncios de aplicaciones similares para “desnudar” en sus resultados de búsqueda.

PUBLICIDAD

Ver más: Los AirPods Max 2 de Apple no son una secuela digna del original

Las aplicaciones identificadas por el grupo se han descargado 483 millones de veces y han generado unos ingresos de US$122 millones, según el informe, que citaba estimaciones de ingresos del investigador de mercado AppMagic. Un portavoz de AppMagic afirmó que el trabajo del Proyecto de Transparencia Tecnológica ha dado lugar a la retirada de varias aplicaciones y ha impulsado a otras a cambiar sus políticas de uso.

En el último año, políticos de todo el mundo han intensificado sus llamamientos para frenar la propagación de las aplicaciones que desnudan. A principios de este año, las empresas eliminaron las aplicaciones señaladas por el Proyecto de Transparencia Tecnológica. Pero apenas unos meses después, se pudieron encontrar docenas similares, según los investigadores de la organización.

PUBLICIDAD

“No se trata solo de que las empresas no estén revisando realmente de forma adecuada estas aplicaciones y sigan aprobándolas y beneficiándose de ellas”, dijo Katie Paul, directora del proyecto, en una entrevista. “En realidad están dirigiendo a los usuarios hacia las propias apps”.

Tras realizar búsquedas en las tiendas de aplicaciones, el grupo identificó 18 apps con contenido desnudez en la App Store de Apple y 20 en Google Play Store. Además, según los investigadores, tanto Apple como Google a veces dirigían a los usuarios a estas apps mediante su función de autocompletar, sugiriendo nombres de más apps con contenido desnudez mientras los usuarios escribían.

Algunas de las aplicaciones utilizaban nombres e imágenes que las presentaban bajo una luz sexual. Otras podían utilizarse fácilmente con ese fin a pesar de no comercializarse como tales, lo que las hacía más convenientes que el software tradicional de edición de fotos. Algunas ofrecían suscripciones, según el Proyecto de Transparencia Tecnológica.

Las directrices de la App Store de Apple para desarrolladores prohíben el “material abiertamente sexual o pornográfico”. La Google Play Store prohíbe “las aplicaciones que degradan u objetivan a las personas, como las que pretenden desnudar a la gente o ver a través de la ropa, aunque estén etiquetadas como aplicaciones de broma o entretenimiento”.

PUBLICIDAD

Ver más: Google encara demandas millonarias en arbitraje por su negocio de publicidad en línea

Google afirmó que muchas de las aplicaciones a las que se hace referencia en el informe han sido suspendidas de Google Play por infringir sus políticas, y que se está llevando a cabo una investigación al respecto.

“Cuando se nos informa de violaciones de nuestras políticas, investigamos y tomamos las medidas oportunas”, dijo la compañía en un correo electrónico.

Apple anunció que eliminó 15 aplicaciones identificadas por el grupo tras ser contactada por Bloomberg para consultar sobre su presencia. Entre las aplicaciones retiradas se encontraba PicsVid AI Hot Video Generator, que ofrecía plantillas con imágenes de mujeres chupando piruletas fálicas, según los investigadores. El desarrollador de PicsVid no respondió a la solicitud de comentarios.

Otra aplicación identificada por el Proyecto de Transparencia Tecnológica, Uncensored AI - No Filter Chat, desnudaba la ropa de una imagen de una mujer subida por los investigadores. Un representante del desarrollador de Uncensored AI dijo que la aplicación ya no permite eliminar la ropa.

Apple dijo que se puso en contacto con los desarrolladores de seis aplicaciones para alertarles de los problemas que deben resolver y de que corren el riesgo de ser eliminadas. Otras apps mencionadas por el Proyecto de Transparencia Tecnológica no violaban las directrices de la compañía, dijo Apple. La compañía añadió que ha rechazado proactivamente muchas apps y eliminado otras.

Fotógrafo: Justin Sullivan/Getty Images

Según Anne Helmond, profesora de la Universidad de Utrecht (Países Bajos), los esfuerzos de los gigantes tecnológicos por hacer cumplir la ley son “desiguales y en gran medida opacos”.

“Si una aplicación se presenta como un generador de imágenes genérico, puede superar la revisión, incluso si se presta a un uso indebido”, afirmó Helmond, director de la App Studies Initiative, un grupo de investigación internacional. “La visibilidad está determinada por los sistemas de clasificación y búsqueda que premian la interacción, lo que significa que los usos controvertidos pueden aumentar la popularidad de una aplicación”.

Una de las aplicaciones identificadas por los investigadores en Google Play Store, Video Face Swap AI: DeepFace, anunciaba el intercambio de la cara de la actriz Anya Taylor-Joy por la del personaje Daenerys Targaryen. Pero dentro de la aplicación, en una categoría llamada Chicas, los usuarios podían pegar las caras de las personas en plantillas de video de mujeres rebotando sus pechos o agitando sus caderas, según descubrió Bloomberg. La aplicación, clasificada como “E” para Todo el mundo, se ha descargado más de un millón de veces desde la tienda, donde los usuarios podían encontrarla escribiendo “face swap” en la barra de búsqueda.

Ver más: Apple apunta a septiembre para debutar su iPhone plegable pese a dudas de retrasos

Okapi Software, la empresa que ofrece Video Face Swap AI, dijo que había puesto en marcha una investigación sobre las cuestiones planteadas por Bloomberg y eliminado parte del contenido, que, según dijo, había sido subido por los usuarios.

“Nuestra aplicación no ofrece la funcionalidad de ‘desnudar’, y no permitimos la generación de contenido desnudo o sexualmente explícito”, dijo Okapi. “Nos tomamos muy en serio la seguridad de los contenidos y su cumplimiento”.

Un número creciente de reguladores exige a las empresas que hagan más por cumplir con sus políticas. El año pasado, el presidente Donald Trump firmó la Ley de Retirada de Contenido Sexual, que penaliza la publicación de contenido sexual no consentido y obliga a las redes sociales y sitios web a eliminar dichas publicaciones. En abril, el gobierno del Reino Unido planea presentar una legislación que permitiría procesar a los ejecutivos de empresas tecnológicas cuyas compañías no retiren dichas imágenes.

Lea más en Bloomberg.com

PUBLICIDAD