Una nueva ola de armas robotizadas cambiará para siempre las guerras. Ya es posible atacar una ciudad con 10.000 drones por nueve millones de euros. Los expertos piden regular la inteligencia artificial bélica antes de que sea tarde
JORGE BENÍTEZ / GABRIEL SANZ / Ilustraciones / PAPEL / EL MUNDO
La primera arma de la que se tiene constancia fue tremendamente efectiva. Caín reventó la cabeza de su hermano Abel con una quijada de asno en lo que, según la Biblia, resultó ser el primer acto de guerra de la Humanidad. Victoria de Caín por KO gracias a su saber tecnológico: la mandíbula de un animal es más dura que los nudillos de un puño humano.
El hombre aprendió enseguida que la innovación significa poder. El bronce venció a la piedra; el hierro, al bronce… y así ha sido siempre. Hasta que llegaron las dos revoluciones bélicas que realmente marcaron la diferencia: la pólvora a finales de la Edad Media y, ya en el siglo XX,la bomba atómica.
Ahora asistimos al comienzo de una era en la que la guerra vive una tercera revolución que para numerosos expertos será la más trascendental de la historia. Los avances en robótica e inteligencia artificial (IA) del presente vislumbran un futuro en el que, según los más optimistas, los conflictos armados tendrán una reducción brutal de bajas, tanto militares como civiles. Otros, en cambio, temen que la escalada tecnológica acabe provocando una destrucción total. Sólo hay consenso en una cosa: las guerras serán mucho más baratas.
El problema es que estos bajos precios de la muerte pueden hacer que todos tengamos más enemigos peligrosos que antes. Según una estimación deKai-Fu Lee, rockstar de la inteligencia artificial china, un ataque a una ciudad con un enjambre de 10.000 drones autónomos tendría un precio teórico de nueve millones de euros. Es decir, el 0,075% del gasto militar de España para este año.
Ángel Gómez de Ágreda, coronel del Ejército del Aire, ha explicado este nuevo paradigma de la guerra en diversas publicaciones que subrayan el desafío para la humanidad del armamento autónomo: «Cuando aparecen nuevas armas, estas son sólo herramientas que cambian la guerra desde un punto de vista táctico, porque la guerra sigue siendo un conflicto de voluntades humanas», afirma. «Sin embargo, con la inteligencia artificial y el entorno digital y cognitivo el escenario deja de ser físico, se entra en un universo virtual donde se alteran nuestras percepciones y voluntades».
La revolución va mucho más allá de la trinchera, de robots médicos que diagnostiquen heridas, francotiradores con rifles detectores de movimiento o terminators voladores que atacan por reconocimiento facial o rastreo telefónico. El gran dilema es que, si no se ponen barreras, el hombre está a punto de convertirse en el sujeto pasivo de la guerra. Será sólo víctima y no verdugo. Y eso tiene muchas implicaciones tanto legales como éticas.
Kai-Fu Lee advierte en su reciente libro Inteligencia Artificial 2041. Diez visiones de nuestro futuro (aún inédito en español) que matar no sólo será más sencillo y económico, sino que se disparará el riesgo de los crímenes contra la humanidad. Pone el ejemplo de los genocidios: ¿Qué habría pasado si Hitler hubiera dejado en manos de una inteligencia artificial el Holocausto, Stalin sus gulags y Pol Pot la ‘limpieza’ de Camboya?
Muchas más víctimas y a un coste económico más bajo. El sueño húmedo de cualquier genocida.
La IA bélica es algo así como el Arca de la Alianza que buscaban desesperadamente los nazis en Indiana Jones y el Arca perdida: el arma total. La tentación de semejante poder es tan grande que muchos países y corporaciones ya participan en una carrera armamentística. Un camino que, como tantas otras veces en la historia, podría tener consecuencias terribles cuando la mecha se encienda.
Otro de los grandes riesgos de esta escalada es que, al contrario que con el riesgo nuclear, con la IA no funciona el principio de disuasión. Los expertos consultados reconocen que un primer ataque sorpresa con drones autónomos resulta indetectable y, además, podría generar una ola de respuestas que derivasen en una espiral de destrucción e, incluso, la tentación de usar el arsenal atómico.
La guerra ‘automatizada’ será más veloz y también más destructiva si no se imponen mecanismos de control, porque las máquinas no dudan, no tienen miedo ni se cansan. Por desgracia, tampoco intercambian mensajes para evitar la aniquilación mutua, como Jrushchov y Kennedy en la crisis de los misiles de Cuba de 1962.
«Estamos ante una situación muy peligrosa con efectos de largo alcance si los Estados empiezan a usar sistemas autónomos sin reglas internacionales claras sobre sus límites», alerta Daan Kenser, experto que asesora a la Campaña internacional de Prohibición de Robots Asesinos. Por su parte, el Future of Life Institute, una organización que trabaja por reducir el riesgo existencial de la inteligencia artificial avanzada, se muestra igual de pesimista: un informe de 2015 ya advirtió que «una carrera armamentística mundial es prácticamente inevitable».
Tanto que ya se han detectado ensayos inquietantes y no sólo de grandes potencias militares como EEUU e Israel, que ya han realizado varias operaciones con drones asesinos, sino también por terceros países. A finales de 2020, cuando la pandemia abría todos los telediarios, se desató un conflicto en el Cáucaso que parecía un capítulo más en la larga guerra del Nagorno-Karabaj entre Armenia y Azerbaiyán. Sin embargo, resultó ser algo más: allí se desató una guerra de drones kamikaze con cargas explosivas que aterrorizaron a soldados y civiles.
Antes estos hechos, la mira telescópica debe mirar hacia los grandes gigantes de la inteligencia artificial, EEUU y China, que saben que aquí está una de las claves para ser la potencia dominadora del siglo XXI. Esta rivalidad ha provocado que Washington sea cada vez más agresivo en la defensa de sus intereses
El más contundente a la hora de denunciar el peligro chino es, sin duda, Eric Schmidt, ex CEO de Google y presidente de la Comisión de Seguridad Nacional de la IA americana. En todas sus intervenciones, sostiene que las democracias deben unirse para mantener este liderazgo y evitar que una potencia autoritaria tome el control, puesto que considera que la guerra tecnológica es una guerra de valores.
Schmidt se ha atrevido incluso a comparar este duelo con la escalada nuclear del pasado siglo: en 1945, cuando se lanzaron las bombas atómicas sobre Japón, la distancia entre el programa nuclear estadounidense y el soviético era mayor que la que hay en inteligencia artificial entre su país y China. Recordemos: la URSS detonó su primera bomba atómica en 1949.
Preguntado por esta inquietud estadounidense, Daan Kenser es claro: «Eric Schmidt no es imparcial en este debate. Tiene interés en aumentar el miedo a China en los EEUU. Y, con ello, incentivar inversiones en empresas que desarrollan productos de inteligencia artificial militar. Él es uno de los principales inversores del contratista de IA Rebellion Defense».
Cierto es que la apuesta china por la IA es impresionante y que su objetivo va más allá de la militarización, puesto que también la utiliza para controlar a sus propios ciudadanos. Pero Kenser considera «injusto» acusar sólo a Pekín de esta escalada: «EEUU lidera el gasto militar en este campo además de poner trabas en la ONU en sus intentos de regulación».
¿Hablamos de regulación? Entonces la mira telescópica debería posarse sobre Europa.
Acostumbrada en temas militares a ser una comparsa, criticada por su excesiva burocracia y por su escaso peso en la OTAN, lo cierto es que en inteligencia artificial Europa tiene mucho que decir. Lo que sucede es que su estrategia no gusta en Pekín y tampoco en Washington. La consideran blanda.
«El gran dilema europeo es lograr que este progreso sea consistente en criterios éticos, que para algunos implica ralentizar el desarrollo tecnológico», apunta el físico y divulgador científico José Ignacio Latorre. «Otros creemos que una sociedad libre y avanzada no puede renunciar a un uso racional, equitativo y justo de los resultados de la ciencia».
¿Puede la ética dejarnos a los europeos fuera de combate? ¿Estamos atrapados en un pensamiento happy flower sin entender esta revolución de la guerra?
Recurrimos a Joanna J. Bryson, profesora de Ética y Tecnología del Centro de la Gobernanza Digital de la Escuela Hertie de Berlín. Reconocida a nivel mundial, esta experta ha investigado si es verdad que los europeos somos un ‘coche-escoba’ de americanos y chinos. Para ello ha estudiado el número de patentes de inteligencia artificial registradas internacionalmente y la capitalización de las empresas que las poseen. Su conclusión: Europa no es tan bambi como se pinta.
Sin menospreciar las preocupaciones de seguridad genuinas de todas las potencias, el estudio de Bryson considera que se está escribiendo un relato equivocado con el fin de minar las intenciones reguladoras de la Unión Europea. «Esta medición no produce los resultados bipolares que tanto se proclaman: la capacidad china se ha exagerado y se minusvalora la de otras regiones del mundo«, explica esta profesora nacida en EEUU y nacionalidad británica.
El discurso propagandístico de la Guerra Fría de la IA no deja una opción razonable a Europa en caso de no comprometerse con Estados Unidos para defender sus valores comunes. Por eso Bryson teme que las interferencias políticas puedan usarse para menoscabar la regulación de las nuevas armas, como también sucedió con la protección de datos. «Se invoca un lenguaje belicoso con el que Europa es acusada de ‘filosofar sobre la ética en lugar de participar en una Tercera Guerra Mundial que ya ha comenzado'», apunta Bryson.
Esto no sólo es una rivalidad tecnológica entre potencias, es también un juego de poder por el relato.
«Las superpotencias se señalan entre sí, generan miedo y dicen que necesitan desarrollar armas autónomas porque otros países lo están haciendo», dice Kenser. «Pero una carrera armamentística de inteligencia artificial no tendría ganadores. Estos países no deberían preguntarse ‘¿Cómo podemos ganarla?’ sino más bien ‘¿Cómo podemos prevenirla?».
Es la historia del hombre: torear entre los pros y contras del futuro. No sabemos qué habría hecho un dron con libre albedrío en tiempos de Caín. Quizás se habría colado en el Jardín del Edén para volver a cerrarlo con llave.
Fuente: https://www.elmundo.es/papel/futuro/2021/10/09/61603147fdddff9d328b45e5.html