PUBLICIDAD
PUBLICIDAD
Tecnología

Debate sobre bots “inteligentes” de Google eclipsa problemas más profundos de IA

Investigadores rechazaron la idea de que la IA fuera realmente sensible, diciendo que las pruebas sólo indicaban un sistema altamente capaz de imitar a los humanos, no la sensibilidad en sí misma

Carteles en la sede de Google en Mountain View, California, Estados Unidos, el jueves 27 de enero de 2022.
Por Davey Alba
14 de junio, 2022 | 07:39 pm
Tiempo de lectura: 7 minutos
Últimascotizaciones

Bloomberg — Un ingeniero de software de Google (GOOGL) fue suspendido después de hacer públicas sus afirmaciones de haber encontrado inteligencia artificial “sensible” en los servidores de la compañía estimulando un debate sobre si la IA puede alcanzar la conciencia y cómo. Los investigadores afirman que se trata de una desafortunada distracción de los problemas más acuciantes de la industria.

El ingeniero Blake Lemoine, dijo que creía que el chatbot de IA de Google era capaz de expresar emociones humanas, lo que plantea cuestiones éticas. Google lo despidió por compartir información confidencial y dijo que sus preocupaciones no tenían fundamento, una opinión muy extendida en la comunidad de la IA. Según los investigadores, lo más importante es abordar cuestiones como si la IA puede generar daños y prejuicios en el mundo real, si se explota a seres humanos reales en el entrenamiento de la IA y cómo las principales empresas tecnológicas actúan como guardianes del desarrollo de la tecnología.

PUBLICIDAD

La postura de Lemoine también puede facilitar que las empresas tecnológicas renuncien a la responsabilidad de las decisiones impulsadas por la IA, dijo Emily Bender, profesora de lingüística computacional de la Universidad de Washington. “Se han dedicado muchos esfuerzos a este espectáculo”, dijo. “El problema es que cuanto más se venda esta tecnología como inteligencia artificial y no digamos como algo sensible, más gente estará dispuesta a aceptar sistemas de IA” que pueden causar daños en el mundo real.

Bender señaló ejemplos en la contratación de personal y la calificación de estudiantes, que pueden llevar implícitos prejuicios dependiendo de los conjuntos de datos que se hayan utilizado para entrenar la IA. Según Bender, si la atención se centra en la aparente sensibilidad del sistema, se aleja de la responsabilidad directa de los creadores de la IA por cualquier fallo o sesgo de los programas.

PUBLICIDAD

El sábado, el Washington Post publicó una entrevista con Lemoine, que conversó con un sistema de IA llamado LaMDA, o Modelos de Lenguaje para Aplicaciones de Diálogo, un marco que Google utiliza para construir chatbots especializados. El sistema ha sido entrenado con billones de palabras de Internet para imitar la conversación humana. En su conversación con el chatbot, Lemoine dijo que llegó a la conclusión de que la IA era un ser sensible que debía tener sus propios derechos. Dijo que el sentimiento no era científico, sino religioso: “¿Quién soy yo para decirle a Dios dónde puede y no puede poner almas?”, dijo en Twitter.

Los empleados de Google de Alphabet Inc. (GOOGL) se mantuvieron en silencio en gran medida en los canales internos, además de Memegen, donde los empleados de Google compartieron algunos memes anodinos, según una persona familiarizada con el asunto. Pero a lo largo del fin de semana y el lunes, los investigadores rechazaron la idea de que la IA fuera realmente sensible, diciendo que las pruebas sólo indicaban un sistema altamente capaz de imitar a los humanos, no la sensibilidad en sí misma. “Está imitando percepciones o sentimientos a partir de los datos de entrenamiento que se le han proporcionado, diseñados de forma inteligente y específica para que parezca que entiende”, dijo Jana Eggers, directora ejecutiva de la empresa de IA Nara Logics.

La arquitectura de LaMDA “sencillamente no admite algunas capacidades clave de la conciencia humana”, dijo Max Kreminski, investigador de la Universidad de California en Santa Cruz, que estudia los medios de comunicación computacionales. Si LaMDA es como otros grandes modelos lingüísticos, dijo, no aprendería de sus interacciones con usuarios humanos porque “los pesos de la red neuronal del modelo desplegado están congelados”. Tampoco tendría ninguna otra forma de almacenamiento a largo plazo en la que pudiera escribir información, lo que significa que no podría “pensar” en segundo plano.

En respuesta a las afirmaciones de Lemoine, Google dijo que LaMDA puede seguir las indicaciones y las preguntas que se le formulen, lo que le da la apariencia de ser capaz de dilucidar sobre cualquier tema. “Nuestro equipo (que incluye a especialistas en ética y tecnología) ha revisado las preocupaciones de Blake de acuerdo con nuestros principios de IA y le ha informado de que las pruebas no respaldan sus afirmaciones”, dijo Chris Pappas, portavoz de Google. “Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos constancia de que nadie más haya hecho las amplias afirmaciones, o antropomorfizado a LaMDA, del modo en que lo ha hecho Blake”.

PUBLICIDAD

El debate sobre la sintiencia en los robots se ha llevado a cabo junto con la representación de la ciencia ficción en la cultura popular, en historias y películas con parejas románticas de IA o villanos de IA. Así que el debate tenía un camino fácil hacia la corriente principal. “En lugar de discutir los daños de estas empresas”, como el sexismo, el racismo y la centralización del poder creada por estos sistemas de IA, todo el mundo “se pasó todo el fin de semana discutiendo sobre la sintiencia”, dijo en Twitter Timnit Gebru, antiguo colíder del grupo de IA ética de Google. “Misión de descarrilamiento cumplida”.

Los primeros chatbots de los años 60 y 70, como ELIZA y PARRY, generaron titulares por su capacidad para conversar con los humanos. En años más recientes, el modelo lingüístico GPT-3 de OpenAI, el laboratorio fundado por el CEO de Tesla (TSLA), Elon Musk, entre otros, ha demostrado habilidades como la capacidad de leer y escribir. Pero, desde una perspectiva científica, no hay pruebas de que la inteligencia o la conciencia humanas estén integradas en estos sistemas, dijo Bart Selman, profesor de informática de la Universidad de Cornell que estudia la inteligencia artificial. LaMDA, dijo, “es sólo un ejemplo más en esta larga historia”.

PUBLICIDAD

De hecho, los sistemas de IA no razonan actualmente sobre los efectos de sus respuestas o comportamientos en las personas o la sociedad, dijo Mark Riedl, profesor e investigador del Instituto Tecnológico de Georgia. Y eso es una vulnerabilidad de la tecnología. “Un sistema de IA puede no ser tóxico ni tener prejuicios, pero aun así no entender que puede ser inapropiado hablar de suicidio o violencia en algunas circunstancias”, dijo Riedl. “La investigación es todavía inmadura y está en curso, incluso cuando hay prisa por el despliegue”.

Compañías tecnológicas como Google y Meta Platforms Inc. (FB) también despliegan la IA para moderar el contenido en sus enormes plataformas, pero todavía hay mucho lenguaje y publicaciones tóxicas que se cuelan en sus sistemas automatizados. Para mitigar las deficiencias de esos sistemas, las empresas deben emplear a cientos de miles de moderadores humanos para garantizar que el discurso de odio, la desinformación y el contenido extremista en estas plataformas se etiqueten y moderen adecuadamente, e incluso así las empresas suelen ser deficientes.

PUBLICIDAD

El enfoque en la sensibilidad de la IA “oculta aún más” la existencia y, en algunos casos, las condiciones de trabajo supuestamente inhumanas de estos trabajadores, dijo Bender, de la Universidad de Washington.

También oculta la cadena de responsabilidad cuando los sistemas de IA cometen errores. En un error ya famoso de su tecnología de IA, Google emitió en 2015 una disculpa pública después de que se descubriera que el servicio de Fotos de la compañía etiquetara erróneamente las fotos de un desarrollador de software negro y su amigo como “gorilas”. Hasta tres años después, la empresa admitió que su solución no era una mejora del sistema de IA subyacente; en su lugar, borró todos los resultados de los términos de búsqueda “gorila”, “chimpancé” y “mono”.

PUBLICIDAD

Poner énfasis en la sensibilidad de la IA habría dado a Google el margen de maniobra para culpar del problema a la IA inteligente que tomó tal decisión, dijo Bender. “La empresa podría decir: ‘Oh, el software cometió un error’”, dijo. “Pues no, su empresa creó ese software. Usted es responsable de ese error”. Y el discurso sobre la sintiencia lo enturbia de mala manera”.

La IA no solo ofrece una forma de que los humanos abdiquen de su responsabilidad de tomar decisiones justas a una máquina, sino que a menudo simplemente replica los sesgos sistémicos de los datos en los que se entrena, dijo Laura Edelson, científica informática de la Universidad de Nueva York. En 2016, ProPublica publicó una amplia investigación sobre COMPAS, un algoritmo utilizado por jueces y funcionarios de libertad condicional para evaluar la probabilidad de reincidencia de un acusado. La investigación descubrió que el algoritmo predecía sistemáticamente que los negros corrían un “mayor riesgo” de cometer otros delitos, incluso si sus antecedentes demostraban que no lo habían hecho realmente. “Sistemas como éste lavan tecnológicamente nuestros prejuicios sistémicos”, dijo Edelson. “Replican esos sesgos, pero los meten en la caja negra de ‘el algoritmo’, que no se puede cuestionar ni rebatir”.

PUBLICIDAD

Además, según los investigadores, dado que la tecnología LaMDA de Google no está abierta a investigadores externos, el público y otros informáticos sólo pueden responder a lo que les dice Google o a través de la información publicada por Lemoine.

“Es necesario que los investigadores de fuera de Google puedan acceder a ella para que la investigación avance de forma más diversa”, dijo Riedl. “Cuantas más voces, más diversidad de preguntas de investigación, más posibilidades de nuevos avances. Esto se suma a la importancia de la diversidad racial, sexual y de experiencias vividas, que actualmente faltan en muchas grandes empresas tecnológicas.”

Este artículo fue traducido por Estefanía Salinas Concha.

PUBLICIDAD