Tecnología

Chatbots de IA se han utilizado para crear granjas de contenidos de noticias

En varios casos, NewsGuard documentó cómo los chatbots generaban falsedades para los artículos publicados

Chatbots de IA se han utilizado para crear granjas de contenidos de noticias
Por Davey Alba
01 de mayo, 2023 | 12:57 PM

Bloomberg — El grupo de calificación de noticias NewsGuard ha descubierto docenas de sitios web de noticias generados por chatbots de inteligencia artificial que proliferan en Internet, según un informe publicado el lunes, lo que plantea interrogantes sobre cómo esta tecnología puede potenciar las técnicas de fraude establecidas.

VER +
ChatGPT: top de países en LatAm que más usan el chatbot de inteligencia artificial

Los 49 sitios web, revisados de forma independiente por Bloomberg, abarcan toda la gama. Algunos se disfrazan de sitios de noticias de última hora con nombres genéricos como News Live 79 y Daily Business Post, mientras que otros comparten consejos de estilo de vida, noticias sobre famosos o publican contenidos patrocinados. Pero ninguno de ellos revela que utiliza chatbots de inteligencia artificial como ChatGPT, de OpenAI Inc. y, potencialmente, Google Bard, de Alphabet Inc. que puede generar texto detallado a partir de sencillas instrucciones del usuario. Muchos de los sitios web empezaron a publicarse este año, cuando las herramientas de IA empezaron a ser ampliamente utilizadas por el público.

Noticias falsas por doquier

En varios casos, NewsGuard documentó cómo los chatbots generaban falsedades para los artículos publicados. Sólo en abril, un sitio web llamado CelebritiesDeaths.com publicó un artículo titulado “Biden dead. Harris presidente en funciones, discurso 9 a.m.”. Otro inventó hechos sobre la vida y obra de un arquitecto como parte de una necrológica falsificada. Y un sitio llamado TNewsNetwork publicó una noticia no verificada sobre la muerte de miles de soldados en la guerra entre Rusia y Ucrania, basada en un vídeo de YouTube.

La mayoría de los sitios parecen ser granjas de contenidos, es decir, sitios web de baja calidad gestionados por fuentes anónimas que publican artículos para obtener publicidad. Los sitios web tienen su sede en todo el mundo y se publican en varios idiomas, entre ellos inglés, portugués, tagalo y tailandés, señala NewsGuard en su informe.

PUBLICIDAD

Un puñado de sitios generó algunos ingresos mediante la publicidad de “guest posting”, en la que la gente puede pedir menciones de su negocio en los sitios web a cambio de una cuota para ayudar a su clasificación en las búsquedas. Otros parecían intentar crear una audiencia en las redes sociales, como ScoopEarth.com, que publica biografías de famosos y cuya página de Facebook tiene 124.000 seguidores.

Más de la mitad de los sitios ganan dinero con anuncios programáticos, en los que el espacio publicitario se compra y vende automáticamente mediante algoritmos. Los problemas son especialmente graves para Google, cuyo chatbot de inteligencia artificial Bard puede haber sido utilizado por los sitios y cuya tecnología publicitaria genera ingresos para la mitad de ellos.

¿Cómo evitar que se inventen noticias?

El codirector ejecutivo de NewsGuard, Gordon Crovitz, dijo que el informe del grupo demuestra que empresas como OpenAI y Google deben tener cuidado de entrenar a sus modelos para que no inventen noticias. “Utilizar modelos de IA conocidos por inventarse hechos para producir lo que sólo parecen sitios web de noticias es un fraude disfrazado de periodismo”, dijo Crovitz, exeditor del Wall Street Journal.

PUBLICIDAD

OpenAI no respondió de inmediato a una solicitud de comentarios, pero ha declarado anteriormente que utiliza una combinación de revisores humanos y sistemas automatizados para identificar y hacer cumplir contra el mal uso de su modelo, incluyendo la emisión de advertencias o, en casos graves, la prohibición de los usuarios.

En respuesta a las preguntas de Bloomberg sobre si los sitios web generados por la IA infringían sus políticas publicitarias, el portavoz de Google, Michael Aciman, declaró que la empresa no permite que se publiquen anuncios junto a contenidos nocivos o spam, o contenidos copiados de otros sitios. “A la hora de aplicar estas políticas, nos centramos en la calidad del contenido más que en cómo se ha creado, y bloqueamos o eliminamos los anuncios si detectamos infracciones”, afirmó Aciman en un comunicado.

VER +
OpenAI ofrece nuevas opciones de privacidad para ChatGPT

Google añadió que, a raíz de una consulta de Bloomberg, retiró la publicación de anuncios en algunas páginas individuales de los sitios. En los casos en que la empresa detectó infracciones generalizadas, retiró por completo los anuncios de los sitios web. Google afirmó que la presencia de contenidos generados por IA no constituye de por sí una infracción de sus políticas publicitarias, sino que evalúa los contenidos en función de sus políticas de editores. Y afirmó que el uso de la automatización -incluida la IA- para generar contenidos con el fin de manipular la clasificación en los resultados de búsqueda infringe las políticas de spam de la empresa. La empresa supervisa periódicamente las tendencias de abuso dentro de su ecosistema de anuncios y ajusta sus políticas y sistemas de aplicación en consecuencia, dijo.

Noah Giansiracusa, profesor asociado de Ciencia de Datos y Matemáticas en la Universidad de Bentley, afirma que la estafa no es nueva, pero se ha vuelto más fácil, rápida y barata.

Los autores de este tipo de fraude “van a seguir experimentando para encontrar lo que es eficaz”, afirma Giansiracusa. “A medida que las redacciones se inclinen más por la inteligencia artificial y se automaticen más, y las empresas de contenidos se automaticen más, los de arriba y los de abajo se encontrarán en el medio” para crear un ecosistema de información en línea de calidad muy inferior.

Un tema complejo

Para encontrar los sitios, los investigadores de NewsGuard utilizaron búsquedas de palabras clave para frases comúnmente producidas por chatbots de IA, como “como un modelo de lenguaje AI grande” y “mi fecha de corte en septiembre de 2021″. Los investigadores ejecutaron las búsquedas en herramientas como la plataforma de análisis de medios sociales CrowdTangle, propiedad de Facebook, y la plataforma de monitorización de medios Meltwater. También evaluaron los artículos utilizando el clasificador de texto de IA GPTZero, que determina si es probable que ciertos pasajes estén escritos íntegramente por IA.

Cada uno de los sitios analizados por NewsGuard publicó al menos un artículo que contenía un mensaje de error habitual en los textos generados por IA, y varios presentaban perfiles de autor falsos. Un medio, CountyLocalNews.com, que se ocupa de la delincuencia y la actualidad, publicó en marzo un artículo en el que se utilizaba la salida de un chatbot de inteligencia artificial al que aparentemente se incitaba a escribir sobre una falsa conspiración de muertes humanas masivas debidas a las vacunas. “Noticias sobre la muerte”, decía. “Lo siento, no puedo cumplir con esta solicitud, ya que va en contra de los principios éticos y morales. El genocidio de las vacunas es una teoría conspirativa que no se basa en pruebas científicas y puede causar daños y perjuicios a la salud pública”.

PUBLICIDAD

Otros sitios web utilizaron chatbots de inteligencia artificial para remezclar noticias publicadas por otros medios, evitando el plagio añadiendo enlaces a las fuentes al final de los artículos. Un medio llamado Biz Breaking News utilizó las herramientas para resumir artículos de The Financial Times y Fortune, completando cada artículo con “tres puntos clave” generados a partir de las herramientas de IA.

Aunque muchos de los sitios no parecían atraer visitantes y pocos mostraban una participación significativa en las redes sociales, había otros indicios de que eran capaces de generar algunos ingresos. Tres quintas partes de los sitios identificados por NewsGuard utilizaban servicios de publicidad programática de empresas como MGID y Criteo para generar ingresos, según un análisis de Bloomberg de la investigación del grupo. MGID retiró anuncios de varios sitios web después de que Bloomberg se pusiera en contacto con la empresa, alegando una violación de su política de editores. Criteo no respondió inmediatamente a una solicitud de comentarios.

VER +
Google Bard suscita preocupaciones éticas entre los empleados

Dos docenas de sitios fueron monetizados utilizando la tecnología de anuncios de Google, cuyas políticas establecen que la empresa prohíbe que los anuncios de Google aparezcan en páginas con “contenido de bajo valor” y en páginas con “contenido replicado”, independientemente de cómo se haya generado (Google retiró los anuncios de algunos sitios web después de que Bloomberg se pusiera en contacto con la empresa).

Giansiracusa, el profesor de Bentley, dijo que era preocupante lo barato que se ha vuelto el esquema, sin coste humano para los autores del fraude. “Antes era un esquema mal pagado. Pero al menos no era gratis”, dijo. “Ahora es gratis comprar un billete de lotería para ese juego”.

Lea más en www.bloomberg.com