Opinión - Bloomberg

ChatGPT suena exactamente igual a nosotros. ¿Qué tiene eso de bueno?

El sitio web de OpenAI ChatGPT en una computadora portátil en Brooklyn de Nueva York, EE.UU., el jueves, 12 de enero 2023.
Por Stephen Mihm
19 de enero, 2023 | 05:19 AM
Tiempo de lectura: 6 minutos

Bloomberg Opinión — En 1950 Alan Turing, el informático británico que descifró el código Enigma durante la Segunda Guerra Mundial, escribió un artículo en el que planteaba una pregunta aparentemente absurda: “¿Pueden pensar las máquinas?”.

La presentación a finales del año pasado del inquietantemente realista ChatGPT parecía acercarnos a una respuesta. De la noche a la mañana, un chatbot de silicona completamente formado salió de las sombras digitales. Es capaz de hacer chistes, escribir textos publicitarios, depurar código informático y conversar sobre cualquier cosa. Esta nueva e inquietante realidad ya está siendo descrita como uno de esos “puntos de inflexión” en la historia de la inteligencia artificial.

Pero su llegada se ha hecho esperar. Y esta creación en concreto lleva décadas gestándose en los laboratorios de informática.

Como prueba de su propuesta de una máquina pensante, Turing describió un “juego de imitación”, en el que un ser humano interrogaba a dos encuestados situados en otra habitación. Uno sería un ser humano de carne y hueso, el otro un ordenador. El interrogador tendría la tarea de averiguar cuál era cuál planteando preguntas a través de una “teleimpresora”.

PUBLICIDAD

Turing imaginó una computadora inteligente que respondiera a las preguntas con tanta facilidad que el interrogador no pudiera distinguir entre el hombre y la máquina. Aunque admitió que las computadoras de su generación no podían acercarse a superar la prueba, predijo que a finales de siglo “se podrá hablar de máquinas que piensan sin esperar que se les contradiga”.

Su ensayo ayudó a lanzar la investigación sobre inteligencia artificial. Pero también provocó un largo debate filosófico, ya que el argumento de Turing dejaba de lado la importancia de la conciencia humana. Si una máquina sólo podía aparentar que pensaba, pero no era consciente de ello, ¿era realmente una máquina pensante?

Durante muchos años, el reto práctico de construir una máquina capaz de imitar a las demás eclipsó estas cuestiones más profundas. El principal obstáculo era el lenguaje humano, que, a diferencia del cálculo de elaborados problemas matemáticos, se mostraba notablemente resistente a la aplicación de la potencia de cálculo.

PUBLICIDAD

No fue por falta de intentos. Harry Huskey, que trabajó con Turing, regresó a Estados Unidos para construir lo que el New York Times anunciaba como un “cerebro eléctrico” capaz de traducir idiomas. Este proyecto, que el gobierno federal ayudó a financiar, estaba impulsado por los imperativos de la Guerra Fría que hacían de la traducción del ruso al inglés una prioridad.

La idea de que las palabras podían traducirse de forma unívoca (como si se tratara de descifrar un código) se topó rápidamente con la complejidad de la sintaxis, por no hablar de las ambigüedades inherentes a cada palabra. ¿Se refería “fuego” (fire, en inglés) a las llamas? ¿El fin de un empleo? ¿El gatillo de una pistola?

Warren Weaver, uno de los estadounidenses responsables de estos primeros esfuerzos, reconoció que el contexto era clave. Si “fuego” aparecía cerca de “arma”, se podían sacar ciertas conclusiones. Weaver denominó a este tipo de correlaciones el “carácter semántico estadístico del lenguaje”, una idea que tendría importantes implicaciones en las décadas siguientes.

Los logros de esta primera generación son decepcionantes para los estándares actuales. En 1966, un informe patrocinado por el gobierno llegó a la conclusión de que la traducción automática era un callejón sin salida. La financiación se agotó durante años.

PUBLICIDAD

Pero otros siguieron investigando en lo que se conoció como Procesamiento del Lenguaje Natural (PLN). Estos primeros esfuerzos trataban de demostrar que una computadora, con suficientes reglas para guiar sus respuestas, podía al menos intentar jugar al juego de la imitación.

Típico de estos esfuerzos fue un programa que un grupo de investigadores presentó en 1961. Bautizado como “Béisbol”, el programa se presentaba como un “primer paso” para permitir a los usuarios “hacer preguntas a la computadora en inglés corriente y que la computadora respondiera directamente a las preguntas”. Pero había una trampa: los usuarios sólo podían hacer preguntas sobre el béisbol que estaba almacenado en la computadora.

Este chatbot pronto se vio eclipsado por otras creaciones nacidas en la era jurásica de la tecnología digital: SIR (Semantic Information Retrieval), que debutó en 1964; ELIZA, que respondía a las afirmaciones con preguntas a la manera de un terapeuta afectuoso; y SHRDLU, que permitía al usuario dar instrucciones al ordenador para mover formas utilizando lenguaje ordinario.

PUBLICIDAD

Aunque rudimentarios, muchos de estos primeros experimentos ayudaron a impulsar innovaciones en la forma de interactuar entre humanos y computadoras: cómo, por ejemplo, se podía programar una computadora para “escuchar” una consulta, darle la vuelta y responder de forma creíble y realista, reutilizando las palabras e ideas planteadas en la consulta original.

Otros intentaron entrenar a las computadoras para generar obras originales de poesía y prosa con una mezcla de reglas y palabras generadas al azar. En la década de 1980, por ejemplo, dos programadores publicaron The Policeman’s Beard Is Half Constructed (La barba del policía está medio hecha), que se presentó como el primer libro escrito íntegramente por un ordenador.

Pero estas demostraciones ocultaron una revolución más profunda que se estaba gestando en el mundo de la PNL. A medida que la potencia de cálculo aumentaba a un ritmo exponencial y se disponía de un corpus cada vez mayor de obras en formato legible por máquina, fue posible construir modelos cada vez más sofisticados que cuantificaban la probabilidad de las correlaciones entre palabras.

Esta fase, que un autor describió acertadamente como “un procesamiento masivo de datos”, se inició con la llegada de Internet, que ofrecía un corpus cada vez mayor de textos que podían utilizarse para derivar directrices probabilísticas “blandas” que permitieran a un ordenador captar los matices del lenguaje. En lugar de “reglas” rígidas y rápidas que trataban de anticiparse a todas las permutaciones lingüísticas, el nuevo enfoque estadístico adoptó un planteamiento más flexible que, la mayoría de las veces, era correcto.

PUBLICIDAD

La proliferación de chatbots comerciales surgió de esta investigación, al igual que otras aplicaciones: el reconocimiento básico del lenguaje, el software de traducción, las omnipresentes funciones de autocorrección y otras características ya habituales de nuestras vidas cada vez más conectadas. Pero, como sabe cualquiera que haya gritado a un agente artificial de una aerolínea, tenían sus límites.

Al final, resultó que la única forma de que una máquina pudiera imitar a las demás era imitar el cerebro humano, con sus miles de millones de neuronas y sinapsis interconectadas. Las llamadas redes neuronales artificiales funcionan de forma muy parecida, filtrando datos y estableciendo conexiones cada vez más fuertes a lo largo del tiempo mediante un proceso de retroalimentación.

La clave es otra táctica claramente humana: practicar, practicar y practicar. Si se entrena una red neuronal haciéndole leer libros, puede empezar a crear frases que imiten el lenguaje de esos libros. Y si haces que la red neuronal lea, por ejemplo, todo lo que se ha escrito, puede llegar a ser muy, muy buena comunicando.

PUBLICIDAD

Esto es, más o menos, lo que se esconde detrás de ChatGPT. La plataforma se ha entrenado con un vasto corpus de obras escritas. De hecho, toda Wikipedia representa menos del 1% de los textos que ha acaparado en su afán por imitar el habla humana.

Gracias a este entrenamiento, puede decirse que ChatGPT triunfa en el juego de la imitación. Pero por el camino ha ocurrido algo bastante curioso. Según las normas de Turing, las máquinas ya pueden pensar. Pero la única forma en que han sido capaces de lograr esta hazaña es parecerse menos a máquinas con reglas rígidas y más a seres humanos.

Es algo que merece la pena considerar en medio de toda la angustia provocada por ChatGPT. La imitación es la forma más sincera de adulación. Pero, ¿debemos temer a las máquinas o a nosotros mismos?

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.