El gatillo, en manos de un algoritmo
En la actualidad, ninguna nación ha confesado tener en su arsenal algún tipo de armas autónomas que disparan sin que nadie pueda frenar o supervisar el ataque pero una importante lista de países ha admitido estar trabajando en ellos con la esperanza de incorporarlos en sus unidades militares. ¿Qué pasaría si la inteligencia artificial decidiera en una guerra?
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2022
Artículo
En abril de 2003 nació una iniciativa de la mano de varias organizaciones internacionales del calibre de Amnistía Internacional o Human Rights Watch a la que bautizaron como Stop Killer Robots (No a los Robots Asesinos). Busca convencer (y presionar) a los Gobiernos mundiales y las Naciones Unidas para regular los conocidos como Sistemas de Armas Autónomas (SAAL o LAWS, por sus siglas en inglés).
Pero ¿qué son las armas autónomas? Una definición que recoge el documento 3000.09 del Department of Defence Directive estadounidense lo describe como «un sistema de armas que, una vez activados, pueden seleccionar y atacar objetivos sin la intervención adicional de un operador humano». Esta autonomía, también denominada Man out of the loop (donde el sistema decide el blanco sin que el operador tenga oportunidad de frenar o supervisar el ataque), es el tercer y más radical escalón del rango de autonomías de armas. Por debajo de él encontramos el Man on the loop (el sistema decide el blanco, pero el operador supervisa la misión y puede abortarla) y el Man in the loop (el operador decide el blanco y el sistema ejecuta el ataque).
Si bien en la actualidad ninguna nación ha confesado tener en su arsenal algún tipo de las armas que nos atañen (Man out of the loop), es cierto que un buen puñado de países ha admitido estar trabajando en ello con la esperanza de incorporarlos en las unidades militares pertinentes. En esta tesitura nos encontramos a Estados Unidos, Rusia, Reino Unido, China e Israel.
Una investigación de la ONU ha demostrado que el asalto del dron turco STM Kargu-2 fue el primero realizado por un robot sin órdenes de un humano
De hecho, un informe de Mary Wareham, miembro del Comité Consultivo Público para el Desarme y el Control de Armas (PACDAC) de Human Rights Watch, recoge la reticencia generalizada de estas potencias a la hora de prohibir el uso de las SAAL: Estados Unidos, por ejemplo, considera que la legislación actual ya es suficiente y cree que estas armas podrán suponer un punto de inflexión tanto para misiones militares como humanitarias. Israel, por su parte, no esconde estar trabajando con prototipos y apoya su uso si estos resultan más precisos que la mano del hombre.
Pero a pesar de que ningún país haya reconocido la tenencia y uso de armas autónomas en misiones reales, recientemente una investigación del Panel de Expertos de Libia de la ONU ha expuesto que el dron turco STM Kargu-2 funcionó de manera autónoma en la persecución y ataque a un convoy logístico de leales al general libio Khalifa Haftar el 27 de mayo de 2020, cuando este se encontraba en plena retirada. Si bien el ataque no dejó ningún fallecido, el incidente llama poderosamente la atención por ser el primer asalto realizado por un robot que no ha recibido órdenes de un operador humano.
La guerra, una película
Ante un panorama como el descrito en las líneas anteriores, el ser humano se convierte en un mero espectador de las misiones protagonizadas por las máquinas. La falta de capacidad para controlar la ejecución de estos cometidos ha llevado a estas organizaciones unidas bajo el lema Stop Killer Robots a pedir la regulación de estas armas en el Derecho Internacional Humanitario, la normativa que –entre otras medidas– limita el tipo de armas que dos bandos beligerantes pueden usar en sus enfrentamientos. ¿Se unirán las armas autónomas letales a la lista que ya incluye las minas antipersona, las armas láser o las armas químicas?
La rápida evolución de la tecnología permite que los nuevos sistemas sean capaces de recoger, sintetizar y analizar grandes cantidades de datos en pocos segundos; una habilidad que los convierte en extremadamente poderosos. ¿Qué pasaría si la inteligencia artificial de estos sistemas sufriera un proceso parecido a la AI de Microsoft, Tay, que a las pocas horas de entrar en contacto con las redes sociales empezó a enunciar proclamas nazis, machistas y racistas?
Estados Unidos considera que la legislación actual sobre las armas autónomas ya es suficiente
Como solución a una posible revolución de robots asesinos, el Comité Internacional de la Cruz Roja (CICR) ha propuesto la prohibición de los sistemas impredecibles y de los que sirvan para atacar objetivos humanos. Asimismo, aboga por una regularización de los robots que sí permiten el control por parte de un operador humano, para que estos queden restringidos a un uso contra objetivos militares, y no se usen nunca para atacar a civiles o bienes civiles.
Stop Killer Robots busca mantener a flote la humanidad que aún se puede encontrar en una guerra, esta que está en peligro de extinción a causa de las importantes sumas de dinero que se invierten en la modernización y tecnologización de los grandes ejércitos. Frenadas por la pandemia, los expertos defienden que las cumbres que tratan este importante asunto deberían retomarse cuanto antes para que la deshumanización digital no alcance por completo los conflictos bélicos.
COMENTARIOS