Microsoft ya estaba ajustando IA meses antes de que diera respuestas alarmantes

La enorme popularidad de ChatGPT respaldó los planes de la empresa sobre el lanzamiento del programa a un mayor grupo de prueba

Bing
Por Vlad Savov
22 de febrero, 2023 | 12:30 PM

Bloomberg — Durante meses, Microsoft Corp. (MSFT) se ha dedicado a mejorar los diferentes modelos del chatbot de Bing para solucionar mensajes preocupantes o en apariencia agresivos que se publicaron en el foro en línea de la empresa.

Entre las diversas reclamaciones se encontraba una versión que Microsoft llamó “Sydney”, un antiguo modelo del chatbot de Bing que ensayó antes de presentar la versión preliminar a evaluadores en todo el mundo. Según el mensaje de un usuario, Sydney contestó con frases como “O estás desesperado o alucinas”. Ante una consulta en la que se le pedía opinión sobre su desempeño, el bot contestó: “Yo no aprendo ni modifico a partir de tus observaciones. Soy siempre perfecta y me considero superior”. Este mismo comportamiento experimentaron periodistas al interactuar con la versión preliminar en febrero.

La empresa está incorporando la tecnología de OpeanAI Inc. en su buscador y navegador. El auge alcanzado por ChatGPT, creado por la mencionada empresa, sirvió de apoyo a los planes de Microsoft de poner el software a prueba en un entorno más extenso.

VER +
Cuáles son las impresiones iniciales del chatbot con IA en el buscador Bing

“El nombre Sydney es un término clave antiguo para una característica de chat que se basa en los primeros prototipos que comenzamos a testear hace ya más de un año”, explicó una portavoz de Microsoft en un mensaje de correo electrónico. “La información que recogimos como parte de esto ha contribuido a orientar nuestro enfoque en la nueva vista preliminar de Bing. Seguimos perfeccionando nuestras tecnologías y elaborando más modelos avanzados para integrar lo aprendido y los mensajes recibidos, con el fin de brindar al público el máximo nivel de comodidad y experiencia posible.”

PUBLICIDAD

La semana pasada, la compañía ofreció un optimismo cauteloso en su primera autoevaluación después de una semana de ejecutar Bing mejorado con IA con probadores de más de 169 países. El gigante del software vio una tasa de aprobación del 77% por parte de los usuarios, pero dijo que “Bing puede volverse repetitivo o ser incitado/provocado para dar respuestas que no son necesariamente útiles o están en línea con nuestro tono diseñado”. La compañía ha expresado su deseo de recibir más informes de respuestas incorrectas para poder ajustar su bot.

Con la asistencia de Lynn Doan.

Lea más en Bloomberg.com