París, Francia.- La inteligencia artificial se ha consolidado como una herramienta en las guerras modernas, pero suscita una inmensa preocupación por el riesgo de escalada que entraña y, sobre todo, por la cuestión de hasta qué punto los humanos realmente la controlan.
Dos medios de comunicación israelíes independientes acusaron recientemente al Estado judío de haber utilizado inteligencia artificial para identificar objetivos de ataque en Gaza, lo que provocó que el secretario general de la ONU, Antonio Guterres, reaccionara diciendo que estaba “profundamente perturbado” el viernes.
Más allá del programa incriminado en cuestión, Lavender, y de la investigación periodística que desmienten las autoridades israelíes, estas son las claves de un desarrollo tecnológico que ha cambiado la forma de hacer la guerra.
– Tres usos principales –
La IA es especialmente apreciada para definir objetivos. El algoritmo procesa multitud de datos a gran velocidad, de los que extrae cálculos de probabilidad que en teoría ayudan a decidir qué objetivos acertar.
La IA también interviene a nivel táctico, por ejemplo, en el caso de los enjambres de drones, una técnica en la que China parece haber hecho avances considerables. En el futuro, cada dispositivo podrá comunicarse con los demás e interactuar en función de un objetivo previamente designado.
A nivel estratégico, la IA también permite modelar campos de batalla, hipótesis de respuesta ante un ataque e incluso el uso o no de armas atómicas.
– Piensa más rápido –
En caso de conflicto importante, AI propone “estrategias y planes militares que responden en tiempo real a determinadas situaciones”, resume Alessandro Accorsi, experto de Crisis Group.
“El tiempo de reacción se reduce significativamente. Lo que un humano hace en una hora, la IA lo hace por ti en unos segundos”.
Por ejemplo, el sistema Cúpula de Hierro, que intercepta proyectiles aéreos en Israel, es capaz, gracias a la IA, de detectar la llegada de uno, determinar su tipo y destino e incluso los daños que es probable que cause.
A partir de ahí, “el operador (…) tiene un minuto para decidir si neutraliza o no el cohete”, explica Laure de Roucy-Rochegonde, del Instituto Francés de Relaciones Internacionales (IFRI).
El problema, aclara, es que “muy a menudo” quien gestiona el sistema es “un joven que está haciendo el servicio militar, que tiene veinte años y no es muy conocedor del derecho de la guerra”. Cabe preguntarse hasta qué punto su control es eficaz.
– Un gran vacío ético –
La IA prevalece en el campo de batalla pero sin que la humanidad necesariamente sea consciente de todas las consecuencias.
El hombre “toma una decisión que consiste en una recomendación formulada por la máquina, pero sin saber en qué hechos se basa la máquina”, explica Laure de Roucy-Rochegonde.
“Incluso si es un operador humano quien presiona el botón, esta falta de conocimiento o incomprensión, así como el factor velocidad, significa que su responsabilidad a la hora de tomar la decisión es bastante limitada”.
“No sabemos necesariamente qué ha hecho o pensado (IA), ni cómo ha llegado a ese resultado”, añade Ulrike Franke, del Consejo Europeo de Relaciones Exteriores (ECFR), un grupo de expertos.
– Ucrania como laboratorio –
Estados Unidos ha estado utilizando algoritmos, por ejemplo, para atacar recientemente a los rebeldes hutíes en Yemen. Pero “el gran cambio está ocurriendo ahora: Ucrania se ha convertido en un laboratorio para el uso militar de la IA”, afirma Alessandro Accorsi.
Desde que Rusia invadió Ucrania en febrero de 2022, ambas partes han “desarrollado soluciones de IA para tareas como inteligencia geoespacial, operaciones de sistemas no tripulados, entrenamiento militar y guerra cibernética”, escribe Vitali Goncharuk, del Observatorio de IA de Defensa (DAIO) de la Universidad Helmut Schmidt de Hamburgo. .
– Escalada y riesgo nuclear –
La figura de Terminator, ese robot asesino sobre el que el hombre pierde el control, está en la mente de todos. Y aunque podría considerarse una mera fantasía cinematográfica, la realidad es que los fríos cálculos de las máquinas ignoran la duda y el instinto de supervivencia, que caracteriza profundamente al homo sapiens.
En enero, investigadores de cuatro institutos y universidades norteamericanos publicaron un estudio, utilizando simulaciones de conflictos, de cinco modelos lingüísticos principales.
Según las conclusiones, estos modelos “tienden a desarrollar una dinámica de carrera armamentista, que conduce a conflictos más importantes y, en casos raros, al despliegue de armas nucleares”, afirman.
Las grandes potencias están preocupadas por no ser superadas por sus rivales, y de momento no parecen querer regular demasiado toda esta tecnología. El presidente estadounidense, Joe Biden, y el presidente chino, Xi Jinping, acordaron en noviembre que sus respectivos expertos examinaran la cuestión.
Las Naciones Unidas llevan diez años abordando el tema, pero sin grandes resultados.
“Hay debates sobre lo que se debe hacer en la industria civil de la IA”, señala Alessandro Accorsi. “Pero muy pocos cuando se trata de la industria de Defensa”. AFP