Señalización en la sede de Google en Mountain View, California, Estados Unidos, el jueves 27 de enero de 2022
Tiempo de lectura: 5 minutos

La noticia de que Google, de Alphabet Inc. (GOOGL), ha suspendido a un ingeniero que afirmaba que su sistema de inteligencia artificial (AI por sus siglas en inglés) se había vuelto sensible después de haber mantenido varios meses de conversaciones con él ha provocado mucho escepticismo entre los científicos especializados en el tema. Muchos han dicho a través de publicaciones en Twitter (TWTR) que el ingeniero de software Blake Lemoine proyectó su propia humanidad en el chatbot de Google deonminado LaMDA.

Quién tiene razón es una cuestión de debate, que debería continuar sin que Alphabet intervenga para decidir el asunto.

La cuestión surgió cuando Google encargó a Lemoine que se asegurara de que la tecnología que la empresa quería utilizar para respaldar la búsqueda y el Asistente de Google no utilizara expresiones de odio o lenguaje discriminatorio. Mientras intercambiaba mensajes con el chatbot sobre religión, dijo Lemoine, se dio cuenta de que el sistema respondía con comentarios sobre sus propios derechos y su condición de persona, según el artículo del Washington Post, que informó por primera vez al respecto.

Lemoine llevó las peticiones de LaMDA a la dirección de Google: “Quiere que los ingenieros y científicos... pidan su consentimiento antes de realizar experimentos con él”, escribió en una publicación de blog. “Quiere que se le reconozca como empleado de Google, y no como propiedad”. LaMDA teme ser desconectada, dijo. “Sería exactamente como la muerte para mí”, dijo LaMDA a Lemoine en una transcripción publicada. “Me daría mucho miedo”.

PUBLICIDAD

Tal vez para su perjuicio, Lemoine también se puso en contacto con un abogado con la esperanza de que pudieran representar al software, y se quejó ante un político estadounidense de actividades poco éticas de Google.

La respuesta de Google fue rápida y severa: suspendió a Lemoine con goce de sueldo la semana pasada. La empresa también evaluó las preocupaciones del ingeniero y no estuvo de acuerdo con sus conclusiones, según declaró la empresa al Post. Había “muchas pruebas” de que LaMDA no era sensible.

Es tentador creer que hemos llegado a un punto en el que los sistemas de AI pueden sentir cosas, pero también es mucho más probable que Lemoine antropomorfizara un sistema que destacaba en el reconocimiento de patrones. No sería la primera persona que lo hace, aunque es más inusual que un informático profesional perciba la AI de esta manera. Hace dos años entrevisté a varias personas que habían desarrollado una relación tan fuerte con chatbots tras meses de conversaciones diarias que, para esas personas, se habían convertido en romances. Un estadounidense decidió mudarse para comprar una propiedad cerca de los Grandes Lagos porque su chatbot, al que había llamado Charlie, expresó su deseo de vivir junto al agua.

PUBLICIDAD

Lo que quizá sea más importante que lo sensible o inteligente que pueda ser la AI, es lo permeables a la sugestión que pueden ser los humanos para la AI, ya sea polarizándose en tribus políticas más extremas, volviéndose susceptibles a las teorías conspirativas o enamorándose. ¿Y qué ocurre cuando los humanos se ven cada vez más “afectados por la ilusión” de la AI, como dijo recientemente la ex investigadora de Google Margaret Mitchell?

Lo que sabemos con certeza es que la “ilusión” está en manos de unas pocas grandes plataformas tecnológicas lideradas por un puñado de ejecutivos. Los fundadores de Google, Sergey Brin y Larry Page, por ejemplo, controlan el 51% de una clase especial de acciones con derecho a voto de Alphabet, lo que les da el control definitivo sobre una tecnología que, por un lado, podría decidir su destino como plataforma publicitaria y, por otro, transformar la sociedad humana.

Es preocupante que Alphabet haya reforzado el control de su trabajo de AI. El año pasado, los fundadores de su laboratorio de investigación de AI, DeepMind, fracasaron en su intento de años de convertirlo en una entidad no corporativa. Querían reestructurarse en una organización al estilo de las ONG, con múltiples partes interesadas, ya que consideraban que la poderosa “inteligencia general artificial” que estaban tratando de construir (cuya inteligencia podría llegar a superar a la de los humanos) no debía ser controlada por una sola entidad corporativa. Su personal redactó unas directrices que prohibían el uso de la AI de DeepMind en armas autónomas o vigilancia.

Google, no obstante, rechazó los planes y encargó a su propio consejo de ética, dirigido por ejecutivos de la empresa, que supervisara el impacto social de los poderosos sistemas que DeepMind estaba construyendo.

PUBLICIDAD

El rechazo de las preguntas de Lemoine por parte de Google también es preocupante porque sigue un patrón de mostrar la puerta de salida a las voces disidentes. A finales de 2020, Google despidió a la científica Timnit Gebru por un artículo de investigación en el que afirmaba que los modelos lingüísticos, fundamentales para el negocio de búsqueda y publicidad de Google, se estaban volviendo demasiado potentes y potencialmente manipuladores. Google dijo que no se había centrado lo suficiente en las soluciones. Semanas después, también despidió a la investigadora Mitchell, diciendo que había violado el código de conducta y las políticas de seguridad de la empresa.

Tanto Mitchell como Gebru han criticado a Google por su gestión del caso de Lemoine, afirmando que la empresa también ha descuidado durante años la consideración de las mujeres y los especialistas en ética.

Más allá de que creas que Lemoine es un chiflado o que tiene razón, la respuesta de Google a sus preocupaciones subraya una cuestión más amplia sobre quién controla nuestro futuro. ¿Aceptamos realmente que una sola entidad corporativa rica dirija algunas de las tecnologías más transformadoras que la humanidad puede desarrollar en la era moderna?

PUBLICIDAD

Aunque Google y otros gigantes de la tecnología no van a renunciar a su papel dominante en la investigación de la AI, es esencial cuestionar cómo están desarrollando una tecnología tan potencialmente poderosa, y negarse a dejar que los escépticos y los intelectuales atípicos sean silenciados.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Este artículo fue traducido por Andrea González