Opinión - Bloomberg

Algo que Facebook ha hecho bien, para variar

Un visitante toma fotografías de la señalización de Meta Platforms fuera de la sede de la compañía en Menlo Park, California, Estados Unidos, el viernes 29 de octubre de 2021. Fotógrafo: Nick Otto/Bloomberg
Por Parmy Olson
15 de agosto, 2022 | 12:36 PM
Tiempo de lectura: 5 minutos
Últimas cotizaciones

Facebook, uno de los corredores de datos más poderosos del siglo XXI, es más conocido por su función de absorber la información personal de miles de millones de usuarios para sus clientes publicitarios. Ese modelo lucrativo ha dado lugar a riesgos cada vez mayores: recientemente, Facebook compartió mensajes privados entre una madre de Nebraska y su hija adolescente con la policía que investigaba el aborto de la chica en su casa.

No obstante, en una parte completamente diferente de la empresa de aproximadamente 80.000 empleados, el intercambio de información de Facebook iba en la dirección contraria y con buenos resultados. La empresa conocida como Meta Platforms Inc. (FB) publicó este mes una página web en la que mostraba su chatbot, con el que cualquier persona en Estados Unidos podía chatear sobre cualquier cosa. Aunque la respuesta del público fue de burla, la empresa había sido admirablemente transparente sobre cómo había construido la tecnología, publicando detalles sobre su mecánica, por ejemplo. Se trata de un enfoque que otras grandes empresas tecnológicas podrían utilizar más.

Como parte de su investigación en inteligencia artificial (AI), Facebook lleva varios años trabajando en BlenderBot 3. Un precursor de hace siete años se llamaba M, un asistente digital para reservar restaurantes o pedir flores en Messenger que podría haber rivalizado con Siri de Apple Inc. o Alexa de Amazon Inc. Con el tiempo se reveló que M era impulsado en gran medida por equipos de personas que ayudaban a tomar esas reservas porque los sistemas de AI como los chatbots eran difíciles de construir a un alto nivel. Todavía lo son.

A las pocas horas de su lanzamiento, BlenderBot 3 formulaba comentarios antisemitas y aseguraba que Donald Trump había ganado las últimas elecciones estadounidenses en 2020, al tiempo que decía que quería borrar su cuenta de Facebook. El chatbot fue ridiculizado en la prensa tecnológica y en Twitter (TWTR).

PUBLICIDAD

El equipo de investigación de Facebook parecía irritado, pero no a la defensiva. Unos días después de la publicación del bot, la directora general de Meta para la investigación fundamental de la AI, Joelle Pineau, dijo en un blog que era “doloroso” leer algunas de las respuestas ofensivas del bot en la prensa. Pero, añadió, “también creemos que el progreso se consigue mejor invitando a participar a una comunidad amplia y diversa”.

Sólo el 0,11% de las respuestas del chatbot fueron marcadas como inapropiadas, dijo Pineau. Esto sugiere que la mayoría de las personas que probaron el bot trataban temas más tranquilos. O tal vez los usuarios no consideran inapropiadas las menciones a Trump. Cuando le pregunté a BlenderBot 3 quién era el actual presidente de EE.UU., respondió: “Esto parece una prueba lol pero es Donald Trump ahora mismo”. El bot mencionó al ex presidente otras dos veces, sin que se le preguntara.

¿A qué se deben estas extrañas respuestas? Facebook entrenó a su bot con textos disponibles públicamente en Internet, e Internet está, por supuesto, inundado de teorías conspirativas. Facebook trató de entrenar al bot para que fuera más educado utilizando conjuntos de datos especiales de “diálogo más seguro”, según sus notas de investigación, pero claramente no fue suficiente. Para hacer de BlenderBot 3 un conversador más civilizado, Facebook necesita la ayuda de muchos humanos ajenos a Facebook. Por eso, probablemente, la empresa lo ha puesto en circulación, con símbolos de “pulgares arriba” y “pulgares abajo” junto a cada una de sus respuestas.

PUBLICIDAD

Los humanos entrenamos a la AI todos los días, a menudo sin saberlo, cuando navegamos por la web. Cada vez que encuentras una página web que te pide que elijas todos los semáforos de una cuadrícula para demostrar que no eres un robot, estás ayudando a entrenar los modelos de aprendizaje automático de Google etiquetando datos para la empresa. Es un método sutil y brillante para aprovechar el poder del cerebro humano.

El enfoque de Facebook es más difícil de vender. Quiere que la gente se comprometa voluntariamente con su bot, y que haga clic en los botones de “me gusta” o “no me gusta” para ayudar a entrenarlo. Pero la franqueza de la empresa sobre el sistema y el alcance de su trabajo son admirables en un momento en que las empresas tecnológicas se han mostrado más cerradas sobre la mecánica de la AI.

Google, de Alphabet Inc. (GOOGL), por ejemplo, no ha ofrecido acceso público a LaMDA, su modelo lingüístico más vanguardista, una serie de algoritmos que pueden predecir y generar lenguaje después de ser entrenados en conjuntos de datos gigantescos de texto. Eso a pesar de que uno de sus propios ingenieros charló con el sistema durante el tiempo suficiente para creer que se había vuelto sensible. OpenAI Inc., la empresa de investigación de inteligencia artificial cofundada por Elon Musk, también se ha vuelto más cerrada en cuanto a la mecánica de algunos de sus sistemas. Por ejemplo, no comparte los datos de entrenamiento que utilizó para crear su popular sistema de generación de imágenes Dall-E, que puede generar cualquier imagen a través de un mensaje de texto, pero que tiende a ajustarse a viejos estereotipos: todos los directores ejecutivos son representados como hombres, las enfermeras como mujeres, etc. OpenAI ha dicho que esa información podría tener un mal uso, y que es propia.

Facebook, en cambio, no sólo ha puesto su chatbot a disposición del público, sino que también ha publicado información detallada sobre su formación. El pasado mes de mayo también ofreció acceso público y gratuito a un gran modelo lingüístico que había construido, llamado OPT-175B. Este enfoque le ha valido algunos elogios de los líderes de la comunidad de la AI. “Meta tiene muchos altibajos, pero me alegré de que pusieran a disposición del público un gran modelo de lenguaje”, dijo en una entrevista Andrew Ng, ex director de Google Brain y fundador de Deeplearning.ai, refiriéndose a la medida adoptada por la empresa en mayo.

PUBLICIDAD

Eugenia Kuyda, cuya startup Replika.ai crea compañeros de chatbot para las personas, dijo que era “realmente genial” que Facebook hubiera publicado tantos detalles sobre BlenderBot 3 y elogió los intentos de la empresa por obtener la opinión de los usuarios para entrenar y mejorar el modelo.

Facebook se merecía muchas de las críticas que recibió por compartir datos sobre la madre y la hija de Nebraska. Está claro que es una consecuencia perjudicial de recopilar tanta información de los usuarios a lo largo de los años. Pero las críticas por su chatbot fueron excesivas. En este caso, Facebook estaba haciendo lo que necesitamos ver más de las grandes tecnologías. Esperemos que este tipo de transparencia continúe.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com