Bloomberg — EE.UU. utilizó la inteligencia artificial para identificar los objetivos alcanzados por los ataques aéreos en Medio Oriente este mes, dijo un funcionario de defensa, revelando el creciente uso militar de la tecnología para el combate.
Algoritmos de aprendizaje automático que pueden aprender por sí mismos a identificar objetos ayudaron a reducir los objetivos de más de 85 ataques aéreos estadounidenses el 2 de febrero, según Schuyler Moore, jefe de tecnología del Mando Central de Estados Unidos, que dirige las operaciones militares estadounidenses en Medio Oriente. El Pentágono dijo que esos ataques fueron realizados por bombarderos y aviones de combate estadounidenses contra siete instalaciones en Irak y Siria.
“Hemos estado utilizando la visión por ordenador para identificar dónde podría haber amenazas”, dijo Moore en una entrevista con Bloomberg News. “Ciertamente hemos tenido más oportunidades de apuntar en los últimos 60 a 90 días”, dijo, añadiendo que EE.UU. está buscando actualmente “una gran cantidad” de lanzacohetes de fuerzas hostiles en la región.
El ejército ha reconocido anteriormente que utiliza algoritmos de visión por ordenador con fines de inteligencia. Sin embargo, los comentarios de Moore suponen la mayor confirmación conocida de que el ejército estadounidense está utilizando esta tecnología para identificar objetivos enemigos que posteriormente fueron alcanzados por el fuego de las armas.
Los ataques estadounidenses, que según el Pentágono destruyeron o dañaron cohetes, misiles, almacenes de drones y centros de operaciones de milicias, entre otros objetivos, formaban parte de la respuesta del gobierno de Biden a la muerte de tres militares estadounidenses en un ataque perpetrado el 28 de enero contra una base en Jordania. Estados Unidos atribuyó el ataque a milicias respaldadas por Irán.
Moore dijo que los sistemas de IA también han ayudado a identificar lanzacohetes en Yemen y buques de superficie en el Mar Rojo, varios de los cuales el Mando Central, o Centcom, dijo haber destruido en múltiples ataques con armas durante febrero. Las milicias hutíes de Yemen, apoyadas por Irán, han atacado repetidamente con cohetes la navegación comercial en el Mar Rojo.
Proyecto Maven
Los algoritmos de focalización se desarrollaron bajo el Proyecto Maven, una iniciativa del Pentágono iniciada en 2017 para acelerar la adopción de IA y aprendizaje automático en todo el Departamento de Defensa y para apoyar la inteligencia de defensa, con énfasis en los prototipos en ese momento en la lucha de Estados Unidos contra los militantes del Estado Islámico.
Moore, que trabaja en la sede del Centcom en Tampa, Florida, dijo que las fuerzas estadounidenses en Medio Oriente han experimentado con algoritmos de visión por ordenador que pueden localizar e identificar objetivos a partir de imágenes captadas por satélite y otras fuentes de datos, probándolos en ejercicios durante el año pasado.
Luego empezaron a utilizarlos en operaciones reales tras el atentado del 7 de octubre de Hamás contra Israel y las represalias militares que siguieron en Gaza, que exacerbaron las tensiones regionales y los ataques de militantes respaldados por Irán. Estados Unidos y la Unión Europea han designado a Hamás organización terrorista.
“El 7 de octubre todo cambió”, dijo Moore. “Inmediatamente nos pusimos en marcha y a un ritmo operativo mucho más alto que el que teníamos antes”, explicó, añadiendo que las fuerzas estadounidenses fueron capaces de hacer “un cambio bastante fluido” en el uso de Maven después de un año de ejercicios digitales.
Moore subrayó que las capacidades de inteligencia artificial de Maven se están utilizando para ayudar a encontrar objetivos potenciales, pero no para verificarlos o desplegar armas contra ellos.
Dijo que los ejercicios realizados a finales del año pasado, en los que el Centcom experimentó con un motor de recomendación de IA, mostraron que tales sistemas “con frecuencia no llegaban a la altura” de los humanos a la hora de proponer el orden de ataque o la mejor arma a utilizar.
Los humanos comprueban constantemente las recomendaciones de objetivos de la IA, afirmó. Los operadores estadounidenses se toman en serio sus responsabilidades y el riesgo de que la IA pueda cometer errores, dijo, y “tiende a ser bastante obvio cuando algo está mal”.
“Nunca hay un algoritmo que simplemente se ejecuta, llega a una conclusión y luego empuja al siguiente paso”, dijo. “Cada paso en el que interviene la IA tiene un control humano al final”.
Lea más en Bloomberg.com
















