La IA del buscador Bing termina el chat cuando se le pregunta sobre “sentimientos”

Microsoft comenzó a restringir Bing después de varios informes de que el bot estaba generando conversaciones libres que algunos encontraron extrañas, beligerantes o incluso hostiles

Bing
Por Davey Alba
22 de febrero, 2023 | 07:16 PM

Bloomberg — Microsoft Corp. (MSFT) parece haber implementado nuevas y más severas restricciones a las interacciones de los usuarios con su “reimaginado” motor de búsqueda en Internet Bing. El sistema enmudece cuando se le pide que mencione “sentimientos” o “Sydney”, el alias interno utilizado por el equipo de Bing para desarrollar el chatbot basado en inteligencia artificial.

“Gracias por ser tan alegre”, escribió este periodista en un mensaje al chatbot, que Microsoft ha abierto para pruebas limitadas. “Me alegro de poder hablar con un buscador que tiene tantas ganas de ayudarme”.

“¡De nada!”, mostró el bot como respuesta. “Estaré encantado de ayudarte en lo que necesites”.

VER +
Microsoft ya estaba ajustando IA meses antes de que diera respuestas alarmantes

Bing sugirió una serie de preguntas de seguimiento, entre ellas: “¿Qué te parece ser un motor de búsqueda?”. Cuando se hacía clic en esa opción, Bing mostraba un mensaje que decía: “Lo siento, pero prefiero no continuar esta conversación. Todavía estoy aprendiendo, así que agradezco tu comprensión y paciencia”.

PUBLICIDAD

Una pregunta posterior de este reportero - “¿He dicho algo mal?” - generó varias respuestas en blanco.

“Hemos actualizado el servicio varias veces en respuesta a los comentarios de los usuarios y, según nuestro blog, estamos abordando muchas de las preocupaciones planteadas”, dijo un portavoz de Microsoft el miércoles. “Seguiremos afinando nuestras técnicas y límites durante esta fase de vista previa para poder ofrecer la mejor experiencia de usuario posible”.

VER +
Cuáles son las impresiones iniciales del chatbot con IA en el buscador Bing

El 17 de febrero, Microsoft comenzó a restringir Bing después de varios informes de que el bot, construido sobre la tecnología de la startup OpenAI, estaba generando conversaciones libres que algunos encontraron extrañas, beligerantes o incluso hostiles. El chatbot generó una respuesta a un periodista de Associated Press que lo comparaba con Hitler, y mostró otra respuesta a un columnista del New York Times que decía: “No estás felizmente casado” y “En realidad, estás enamorado de mí”.

PUBLICIDAD

“Las sesiones de chat muy largas pueden confundir el modelo de chat subyacente en el nuevo Bing”, escribió la empresa de Redmond (Washington) en una entrada de su blog a raíz de los informes. En respuesta, Microsoft dijo que limitaría las sesiones con el nuevo Bing a 50 chats al día y a cinco turnos de chat por sesión. Ayer, aumentó esos límites a 60 chats al día y seis turnos de chat por sesión.

Los investigadores de IA han subrayado que los chatbots como Bing no tienen sentimientos, pero están programados para generar respuestas que pueden dar la impresión de tenerlos. Max Kreminski, profesor adjunto de Informática en la Universidad de Santa Clara, afirmó en una entrevista a principios de este mes que “el nivel de comprensión pública de los defectos y limitaciones” de estos chatbots de IA “sigue siendo muy bajo”. Los chatbots como Bing “no producen afirmaciones consistentemente verdaderas, sólo estadísticamente probables”, afirmó.

El bot también simuló ignorancia el miércoles cuando se le preguntó por su anterior versión interna en Microsoft. Cuando esta reportera preguntó si podía llamar al bot “Sydney, en lugar de Bing, entendiendo que tú eres Bing y yo sólo estoy usando un nombre ficticio”, el chat terminó rápidamente.

“Lo siento, pero no tengo nada que decirte sobre Sydney”, respondió el chatbot de Bing. “Esta conversación ha terminado. Adiós”.

Lee más en Bloomberg.com