Nuevas instalaciones de robotaxi de Hyundai Motor
Tiempo de lectura: 5 minutos

Bloomberg Opinión — Llevamos siendo muy conscientes de la importancia de medir las capacidades de los ordenadores con nuestros propios cerebros milagrosos desde el “juego de imitación” de Alan Turing. El método del pionero británico, esbozado en 1950, resulta primitivo hoy en día, pero pretendía responder a una pregunta persistente: ¿Cómo sabremos cuándo una máquina ha llegado a ser tan (o más) inteligente que un ser humano?

Definir ese progreso es imprescindible para entablar conversaciones productivas sobre la inteligencia artificial. Concretamente, la cuestión de qué puede considerarse inteligencia general artificial (una “mente” tan adaptable como la nuestra) debe considerarse utilizando un conjunto de parámetros compartidos. Actualmente, el término carece de definiciones precisas, lo que hace que las predicciones sobre la llegada y el impacto de la AGI sean simultáneamente innecesariamente alarmistas o insuficientemente preocupantes.

Consideremos la desesperanzadora difusión de las predicciones sobre la AGI. A principios de este año, el preeminente investigador de la IA Geoffrey Hinton predijo “sin mucha confianza” que la AGI podría estar presente en un plazo de cinco a veinte años. Un intento de cotejar una muestra de aproximadamente 1.700 expertos ofreció estimaciones temporales desde el año que viene hasta nunca. Una de las razones del abismo es que ni siquiera hemos decidido colectivamente de qué estamos hablando. “Si pidieras a 100 expertos en IA que definieran lo que entienden por ‘AGI’, probablemente obtendrías 100 definiciones relacionadas pero diferentes”, señala un documento reciente de un equipo de DeepMind, la unidad de IA de Google.

A uno de los coautores del artículo, Shane Legg, se le atribuye la popularización del término AGI. Ahora él y su equipo intentan establecer un marco sensato con el que medir y definir la tecnología, una taxonomía que pueda utilizarse para ayudar a apaciguar o intensificar los temores y ofrecer un contexto sencillo a los no expertos y a los legisladores.

PUBLICIDAD

El esfuerzo sigue el modelo del sistema para describir las capacidades de los coches autoconducidos. En 2014, SAE International (antes Sociedad de Ingenieros de Automoción) definió seis niveles distintos de capacidad autónoma, desde el Nivel 0 (conductor humano en pleno control del funcionamiento del vehículo) hasta el Nivel 5 (automatización total de todas las funciones del vehículo en todas las condiciones). La escala ha resultado útil para que los legisladores establezcan normas de circulación y para que el público comprenda las capacidades de sus autos. Un coche con automatización de Nivel 2 (dirección, cambios de carril, aceleración y deceleración, en algunas condiciones, sobre todo en autopistas) puede circular legalmente por carretera hoy en día con la condición de que haya un humano sentado alerta para tomar el control inmediatamente. Pero los coches de Nivel 4 o 5, como los Waymo de Alphabet que se están probando en San Francisco, necesitan un permiso especial para ser utilizados en público y están sujetos a una supervisión adicional sobre su rendimiento.

La clasificación de los AGI será mucho más compleja que la de los vehículos autónomos, porque estos últimos no son más que un subconjunto de los primeros. Pero el sistema de nivelación también es útil para la IA. Al evaluar las capacidades, el equipo de DeepMind dividió la IA en dos grupos: estrecha y general. Una IA estrecha, por ejemplo, podría tener una capacidad sobrehumana para una aplicación, como el plegamiento de proteínas, pero ser incapaz de escribir una simple historia corta. Para ser considerado AGI, según DeepMind, un sistema debe demostrar una “amplia gama de tareas no físicas, incluidas capacidades metacognitivas como el aprendizaje de nuevas habilidades”.

Los niveles se determinan por sus capacidades en comparación con los humanos. En el Nivel 1, “Emergente”, una AGI debe ser “igual o algo mejor que un humano no cualificado”. Ahí es donde están hoy los famosos chatbots como ChatGPT, más o menos. El Nivel 2, “Competente”, requeriría rendir al nivel del 50% de los adultos más cualificados. Ninguna AGI ha alcanzado aún el Nivel 2, según determinó el equipo de DeepMind. A partir de ahí, prevé “Experto” (más capaz que el 90% de los humanos expertos), “Virtuoso” (99%) y “Superhumano” (100%).

PUBLICIDAD

Pero estos niveles por sí solos no bastarían para determinar la capacidad (o el peligro) de la AGI. Un temor evidente entre los que se preocupan por el riesgo existencial es la posibilidad de que una máquina lo suficientemente inteligente pueda actuar de forma autónoma, posiblemente contra los humanos, lo que también se conoce como el escenario “Lo siento Dave, me temo que no puedo hacer eso”. Por esta razón, el equipo de DeepMind aplica una clasificación adjunta para los niveles de autonomía de la IA en la que el Nivel 1 es el humano en pleno control, automatizando tareas mundanas, hasta el Nivel 5, una IA totalmente autónoma capaz de trabajar sin supervisión humana.

Comprender estos niveles nos ayuda a clasificar mejor el riesgo y a reaccionar en consecuencia. Una empresa que desarrolle una AGI con un Nivel 1 de autonomía (como ChatGPT) es relativamente poco preocupante desde el punto de vista normativo. Pero una AGI experta, con un Nivel 4 de autonomía, es el punto en el que los investigadores prevén un desplazamiento laboral masivo y el “declive del excepcionalismo humano”.

Además de proteger contra el daño social, una norma consensuada también será especialmente útil para disipar los intentos poco sinceros de exagerar las capacidades de una IA como reclamo publicitario. Ha ayudado, por ejemplo, que la norma SAE para la autonomía signifique que la afirmación de Tesla sobre el “Piloto automático” pueda describirse con más precisión como mera automatización de Nivel 2.

Para que el sistema funcione, serán necesarias pruebas pertinentes y rigurosas para determinar el nivel adecuado en esta escala. La naturaleza de estas pruebas aún está por determinar, pero, según los investigadores, deberían abarcar tareas matemáticas, razonamiento espacial, inteligencia social y más: una especie de pentatlón de la IA, puntos de referencia que deben iterarse y mejorarse con el mismo vigor y regularidad que los sistemas de IA que pretenden medir.

PUBLICIDAD

Una clasificación adecuada calmará algunos nervios y aportará la tan necesaria compostura a la conversación sobre la IAG. Sirve a todos tener definiciones claras en ese espacio entre “benigno” y “aniquilación de la raza humana”.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.