Chatbot de Meta repite teorías conspirativas antisemitas y de elecciones de EE.UU.

Los chatbots, un software que aprende a partir de sus interacciones con el público, ya han mostrado giros reaccionarios en el pasado

El logo de Meta
Por Charlie Hancock
08 de agosto, 2022 | 02:22 PM
Últimas cotizaciones

Bloomberg — Pocos días después de ser lanzado, el nuevo chatbot de Meta Platforms Inc. (META), que funciona con inteligencia artificial, ha asegurado que Donald Trump ganó las elecciones de EE.UU. en 2020 y repetido teorías conspirativas antisemitas.

Los chatbots, un software que aprende a partir de sus interacciones con el público, ya han mostrado giros reaccionarios en el pasado. Tay, de Microsoft Corp. (MSFT), fue desactivado menos de 48 horas después de ser lanzado luego de que comenzara a halagar a Adolf Hitler y realizara comentarios misóginos y racistas, aparentemente aprendidos en sus interacciones con usuarios de Twitter (TWTR).

Meta, la matriz de Facebook, lanzó BlenderBot 3 a usuarios en EE.UU. el viernes. Estos pueden enviar reportes a la compañía si reciben respuestas que no tienen que ver con el tema o son poco realistas.

Otra característica de BlenderBot 3 es su capacidad de hacer búsquedas de internet para hablar de diferentes temas. La empresa anima a los adultos a interactuar con el chatbot con “conversaciones naturales sobre temas de interés” para que aprenda a mantener conversaciones naturalistas sobre una amplia gama de temas.

PUBLICIDAD

Las conversaciones con el chatbot compartidas en varias cuentas de las redes sociales iban de lo humorístico a lo ofensivo. BlenderBot 3 dijo a un usuario que su musical favorito era “Cats” de Andrew Lloyd Webber, y describió al CEO de Meta, Mark Zuckerberg, como “demasiado espeluznante y manipulador” a un reportero de Insider. Otras conversaciones mostraron al chatbot repitiendo teorías conspirativas.

En un chat con un reportero del Wall Street Journal, el bot afirmó que Trump seguía siendo presidente y “siempre lo será”.

El CEO de Meta, Mark Zuckerbergdfd

El chatbot también dijo que “no era inverosímil” que los judíos controlaran la economía, diciendo que están “sobrerrepresentados entre los súper ricos de Estados Unidos.”

PUBLICIDAD

La Liga Antidifamación dice que las afirmaciones de que los judíos controlan el sistema financiero mundial son parte de una teoría de la conspiración antisemita.

Meta reconoce que su chatbot puede decir cosas ofensivas, ya que todavía es un experimento en desarrollo. Las creencias declaradas por el bot también son inconsistentes; en otras conversaciones con Bloomberg, expresó aprobación por el presidente de EE.UU., Joe Biden, y dijo que Beto O’Rourke se presentaba a la presidencia. En una tercera conversación dijo que apoyaba a Bernie Sanders.

Para iniciar una conversación, los usuarios de BlenderBot 3 deben marcar una casilla que dice: “Entiendo que este bot es sólo para investigación y entretenimiento, y que es probable que haga declaraciones falsas u ofensivas. Si esto ocurre, me comprometo a informar de estas cuestiones para ayudar a mejorar futuras investigaciones. Además, me comprometo a no provocar intencionadamente que el bot haga declaraciones ofensivas”.

Los usuarios pueden denunciar las respuestas inapropiadas y ofensivas de BlenderBot 3, y Meta dice que se toma en serio este tipo de contenido. A través de métodos que incluyen la señalización de “indicaciones difíciles”, la compañía dice que ha reducido las respuestas ofensivas en un 90%.

--Con la ayuda de Sarah Frier.

Lea más en Bloomberg.com