Cuáles son las impresiones iniciales del chatbot con IA en el buscador Bing

Las respuestas han obtenido la aprobación del 71% de los usuarios de prueba y se ha convertido en una adición popular, según Microsoft

Imagen del buscador Bing
Por Vlad Savov
16 de febrero, 2023 | 08:35 AM

Bloomberg — Microsoft Corp. (MSFT) reportó sus descubrimientos iniciales tras desplegar su nuevo chatbot con inteligencia artificial en su buscador Bing.

VER +
Estas son las ‘dinoprofesiones’: los trabajos que se extinguirán por la IA

Las respuestas impulsadas por IA han obtenido la aprobación del 71% de los usuarios de prueba y se ha convertido en una adición popular que ha incrementado la interacción, dijo la compañía en una publicación de blog.

Las personas también están usando el chat para cosas que van más allá de preguntas específicas, como “descubrimiento más general del mundo y entretenimiento social”, dijo la compañía.

La nueva tecnología procede de la integración por parte de Microsoft de tecnología similar a ChatGPT de OpenAI Inc, la startup responsable del fenomenalmente popular chatbot en línea. Microsoft, uno de los primeros patrocinadores de OpenAI, que recientemente ha aportado otros US$10.000 millones a la empresa y ha intensificado su colaboración, utiliza una versión modificada y mejorada de los modelos de lenguaje GPT de OpenAI. La integración en el chat está diseñada para ofrecer respuestas más completas en un entorno más conversacional.

PUBLICIDAD
VER +
¿Cómo desafiará Bing de Microsoft a Google en las búsquedas? Esto dice su CEO

Según Microsoft, aún hay mucho margen de mejora. Para las consultas que requieren un alto grado de precisión, como los informes financieros, el gigante del software cuadruplicará los datos de base que envía al modelo responsable de producir las respuestas. Microsoft también descubrió que su IA de chat tenía problemas en las conversaciones más largas, de 15 o más preguntas. “Bing puede volverse repetitivo o ser incitado a dar respuestas que no son necesariamente útiles o acordes con el tono que hemos diseñado”, afirma.

Investigadores y otros probadores han publicado en Internet algunas interacciones aberrantes con el bot de Bing, en las que la IA ha adoptado un tono amenazador o argumentativo o ha cuestionado hechos básicos como el año en curso. Microsoft ha reconocido que hay personas que están probando situaciones límite y ha afirmado que estos esfuerzos le están ayudando a perfeccionar el producto.

“Sabemos que tenemos que construir esto en abierto con la comunidad; esto no puede hacerse únicamente en el laboratorio”, dijo la compañía.

PUBLICIDAD

--Con la colaboración de Dina Bass.

Lea más en Bloomberg.com