Opinión - Bloomberg

¿Ese chatbot acaba de hacer un chiste grosero?

Inteligencia Artificial
Por Parmy Olson
25 de noviembre, 2021 | 11:48 AM
Tiempo de lectura: 4 minutos

Bloomberg Opinión — PolyAI Ltd. es una empresa ambiciosa que crea voces artificiales para reemplazar a los operadores de los centros de llamadas. Con sede en Londres, ha recaudado US$28 millones para llevar el servicio al cliente impulsado por inteligencia artificial a Metro Bank Plc, BP Plc y más. La idea es que en lugar de la pesadilla de marcar dígitos aleatorios al ser ofrecido distintas opciones uno pueda pedir, digamos, reservar una mesa. Allí una voz, con una pequeña inflexión producto de sus orígenes de aprendizaje automático, responde con gran cortesía. Qué lindo. Pero hace dos años, por un breve momento, no fue nada cortés.

Un desarrollador de software de PolyAI que estaba probando el sistema preguntó si podía reservar una mesa para él y un amigo serbio. “Sí, permitimos niños en el restaurante”, respondió el robot, según el fundador de PolyAI, Nikola Mrksic. Aparentemente de la nada, el robot estaba tratando de hacer un chiste desagradable sobre la gente de Serbia. Cuando se le preguntó sobre la posibilidad de traer a un amigo polaco, respondió: “Sí, pero no puedes traer tu propia bebida”.

Mrksic, que es serbio, admite que el sistema parecía pensar que la gente de Serbia era inmadura. “Tal vez lo seamos”, dice. Le dijo a su equipo que recalibraran el sistema para evitar que volviera a estereotipar. Ahora, dice, el problema se ha solucionado para siempre y los bots no se desviarán hacia nada más allá de los temas de reservar mesas y cancelar suscripciones de teléfonos móviles. Pero Mrksic tampoco sabe por qué el bot dio esas respuestas. Quizás fue porque el modelo de lenguaje de PolyAI, como muchos otros que se utilizan hoy en día, se entrenó procesando millones de conversaciones en Reddit, el foro popular que a veces se convierte en uno lleno de misoginia y exabruptos.

Más allá de ello, el descubrimiento de su equipo también destaca una tendencia desconcertante en la IA: se está construyendo con relativamente poca supervisión ética. En una industria autorregulada que está asumiendo roles de toma de decisiones cada vez más importantes en nuestras vidas, eso aumenta el riesgo de sesgos e intrusiones, o cosas peores si la IA supera la inteligencia humana.

PUBLICIDAD

Los sistemas de inteligencia artificial se abren paso hacia más aplicaciones con cada año que pasa. En 2021, las nuevas áreas de moda fueron los vehículos autónomos y la seguridad cibernética, según un informe de esta semana de la firma de investigación de mercado Pitchbook, que rastrea los flujos de acuerdos de capital de riesgo. Las áreas de crecimiento futuro serán la analítica de préstamos, el descubrimiento de fármacos y las ventas y el marketing. Las startups de inteligencia artificial también se están haciendo públicas o se están vendiendo a valoraciones cada vez más altas.

Compañías de IA

Después de que el crecimiento flaqueara en 2019, los inversores ahora están viendo retornos descomunales en las nuevas empresas de inteligencia artificial. A nivel mundial, han producido US$166.200 millones en capital de salida en lo que va de 2021, más del triple de los valores de los acuerdos revelados durante todo el año pasado, según Pitchbook. El gran atractivo de la IA, y este es el argumento fundamental de inversores como Cathie Woods de Ark Invest, es que los algoritmos son tan baratos de implementar que su costo marginal a lo largo del tiempo será prácticamente cero.

Pero, ¿y si hay un costo para el bienestar humano? ¿Cómo se mide eso? Y si los diseñadores de software no pueden decir cómo se le ocurrió a un chatbot una broma grosera, ¿cómo podrían investigar los sistemas de alto riesgo que chocan autos o toman malas decisiones crediticias?

PUBLICIDAD

Una respuesta es construir una supervisión ética de dichos sistemas desde el principio, como los comités independientes que utilizan los hospitales y algunos gobiernos. Eso significaría más inversión en investigación ética, que actualmente se encuentra en niveles inadecuados. Una encuesta publicada este año por los inversores británicos en tecnología Ian Hogarth y Nathan Benaich mostró que no hay suficientes personas trabajando en seguridad en las principales empresas de inteligencia artificial. Consultaron empresas como OpenAI LP, el laboratorio de investigación de inteligencia artificial cofundado hace cinco años por Elon Musk, y por lo general encontraron solo un puñado de investigadores de seguridad en cada empresa. En mayo, algunos de los principales investigadores de OpenAI en seguridad futura de IA también se fueron .

DeepMind, el laboratorio de inteligencia artificial de OpenAI y Alphabet Inc., están compitiendo para desarrollar inteligencia artificial general o AGI (por sus sigIas en inglés), un hito hipotético para el día en que las computadoras superen a los humanos en lo que respecta a habilidades cognitivas amplias, incluidas las habilidades espaciales, numéricas, mecánicas y verbales. Los informáticos que creen que eso sucederá a menudo dicen que hay mucho en juego. “Si esta cosa es más inteligente que nosotros, ¿cómo sabemos que está alineado con nuestros objetivos como especie?” dice el inversor Hogarth.

Otra respuesta para los usos actuales de la IA es entrenar algoritmos con más cuidado mediante el uso de repositorios de datos limpios e imparciales (y no solo robar de Reddit). Un proyecto llamado Big Science está entrenando uno de esos modelos de lenguaje con la ayuda de 700 investigadores voluntarios de todo el mundo. “Estamos dedicando miles de horas a curar y filtrar datos”, dice Sasha Luccioni, investigadora científica de la startup de procesamiento del lenguaje Hugging Face Inc. que está ayudando a organizar el proyecto, que finaliza en mayo de 2022.

Esa podría ser una alternativa importante para las empresas que crean los chatbots del futuro, pero tampoco debe dejarse en manos de los voluntarios para que se hagan cargo. Las empresas de IA, grandes y pequeñas, también deben invertir en ética.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.