Inicio Política La guerra en Ucrania acelera el impulso global hacia los robots asesinos

La guerra en Ucrania acelera el impulso global hacia los robots asesinos

0
La guerra en Ucrania acelera el impulso global hacia los robots asesinos

El ejército estadounidense está intensificando su compromiso con el desarrollo y uso de armas autónomas, como lo confirma una actualización de un Directiva del Departamento de Defensa. La actualización, lanzada el 25 de enero de 2023, es la primera en una década que se centra en las armas autónomas de inteligencia artificial. Sigue una relación plan de IMPLEMENTACION lanzado por la OTAN el 13 de octubre de 2022, que tiene como objetivo preservar la «ventaja tecnológica» de la alianza en lo que a veces se denomina «robots asesinos».

Ambos anuncios reflejan una lección crucial que los militares de todo el mundo han aprendido de las recientes operaciones de combate en Ucrania y Nagorno-Karabaj: La inteligencia artificial armada es el futuro de la guerra.

“Sabemos que los comandantes ven un valor militar en las municiones merodeadoras en Ucrania”, dijo Richard Moyes, director de Artículo 36, una organización humanitaria enfocada en reducir el daño de las armas, me dijo en una entrevista. Estas armas, que son un cruce entre una bomba y un dron, pueden flotar durante períodos prolongados mientras esperan un objetivo. Por ahora, tales misiles semiautónomos generalmente se operan con un control humano significativo sobre las decisiones clave, dijo.

Presión de guerra

Pero a medida que aumentan las bajas en Ucrania, también aumenta la presión para lograr ventajas decisivas en el campo de batalla con armas totalmente autónomas: robots que pueden elegir, cazar y atacar a sus objetivos por sí mismos, sin necesidad de supervisión humana.

Este mes, un fabricante ruso clave planes anunciados para desarrollar una nueva versión de combate de su robot de reconocimiento Marker, un vehículo terrestre no tripulado, para aumentar las fuerzas existentes en Ucrania. Ya se están utilizando drones completamente autónomos para defender las instalaciones energéticas de Ucrania de otros drones. Wahid Nawabi, director ejecutivo del contratista de defensa estadounidense que fabrica el semiautónomo dron de navajadijo que la tecnología es ya al alcance convertir estas armas para que sean completamente autónomas.

Mykhailo Fedorov, ministro de transformación digital de Ucrania, ha argumentado que las armas completamente autónomas son la guerra «siguiente paso lógico e inevitable” y recientemente dijo que los soldados podrían verlos en el campo de batalla en los próximos seis meses.

Los defensores de los sistemas de armas totalmente autónomos argumentan que la tecnología mantendrá a los soldados fuera de peligro manteniéndolos fuera del campo de batalla. También permitirán que las decisiones militares se tomen a una velocidad sobrehumana, lo que permitirá mejorar radicalmente las capacidades defensivas.

Actualmente, las armas semiautónomas, como las municiones merodeadoras que rastrean y se detonan en los objetivos, requieren un «humano al tanto». Pueden recomendar acciones pero requieren que sus operadores las inicien.

Por el contrario, los drones totalmente autónomos, como los llamados “cazadores de drones» ahora desplegado en Ucraniapuede rastrear y desactivar los vehículos aéreos no tripulados entrantes día y noche, sin necesidad de intervención del operador y más rápido que los sistemas de armas controlados por humanos.

Llamando a un tiempo de espera

A los críticos les gusta La campaña para detener a los robots asesinos han estado abogando durante más de una década para prohibir la investigación y el desarrollo de sistemas de armas autónomos. Apuntan a un futuro en el que los sistemas de armas autónomos están diseñados específicamente para atacar a los humanos, no solo a los vehículos, la infraestructura y otras armas. Argumentan que las decisiones en tiempos de guerra sobre la vida y la muerte deben permanecer en manos humanas. Entregarlos a un algoritmo equivale a la última forma de deshumanización digital.

Juntos con Observador de derechos humanos, La Campaña para Detener a los Robots Asesinos argumenta que los sistemas de armas autónomos carecen del juicio humano necesario para distinguir entre civiles y objetivos militares legítimos. También reducen el umbral de la guerra al reducir los riesgos percibidos y erosionan el control humano significativo sobre lo que sucede en el campo de batalla.

Esta imagen compuesta muestra un dron de municiones merodeador ‘Switchblade’ que se lanza desde un tubo y extiende sus alas plegadas.
Asuntos públicos de AMRDEC del Ejército de EE. UU.

Las organizaciones argumentan que los militares invirtiendo más fuertemente en sistemas de armas autónomos, incluidos EE. UU., Rusia, China, Corea del Sur y la Unión Europea, están lanzando al mundo a una nueva carrera armamentista costosa y desestabilizadora. Una consecuencia podría ser que esta peligrosa nueva tecnología caiga en el manos de terroristas y otros fuera del control del gobierno.

La directiva actualizada del Departamento de Defensa trata de abordar algunas de las preocupaciones clave. Declara que EE. UU. utilizará sistemas de armas autónomos con “niveles apropiados de juicio humano sobre el uso de la fuerza.” Observador de derechos humanos emitió una declaración diciendo que la nueva directiva no aclara lo que significa la frase «nivel apropiado» y no establece pautas sobre quién debe determinarlo.

Pero como Gregory Allen, un experto del think tank de defensa nacional y relaciones internacionales Centro de Estudios Estratégicos e Internacionalesargumenta, este lenguaje establece un umbral inferior que el “control humano significativo” exigido por los críticos. La redacción del Departamento de Defensa, señala, permite la posibilidad de que en ciertos casos, como con aviones de vigilancia, el nivel de control humano considerado apropiado “puede ser poco o nada”.

La directiva actualizada también incluye un lenguaje que promete el uso ético de los sistemas de armas autónomos, específicamente al establecer un sistema de supervisión para desarrollar y emplear la tecnología, e insistiendo en que las armas se utilizarán de acuerdo con las leyes de guerra internacionales existentes. Pero Moyes del Artículo 36 señaló que el derecho internacional actualmente no proporciona un marco adecuado para comprender, y mucho menos regular, el concepto de autonomía de las armas.

El marco legal actual no deja claro, por ejemplo, que los comandantes sean responsables de comprender qué activará los sistemas que utilizan, o que deben limitar el área y el tiempo durante el cual operarán esos sistemas. “El peligro es que no hay una línea clara entre donde estamos ahora y donde hemos aceptado lo inaceptable”, dijo Moyes.

Equilibrio imposible?

La actualización del Pentágono demuestra un compromiso simultáneo con el despliegue de sistemas de armas autónomos y con el cumplimiento del derecho internacional humanitario. Queda por ver cómo Estados Unidos equilibrará estos compromisos, y si tal equilibrio es posible.

El Comité Internacional de la Cruz Roja, custodio del derecho internacional humanitario, insiste en que las obligaciones legales de los comandantes y operadores “no se puede transferir a una máquina, algoritmo o sistema de armas.” En este momento, los seres humanos tienen la responsabilidad de proteger a los civiles y limitar los daños de combate asegurándose de que el uso de la fuerza sea proporcional a los objetivos militares.

En caso de que se desplieguen armas artificialmente inteligentes en el campo de batalla, ¿quién debería ser considerado responsable cuando se produzcan muertes civiles innecesarias? No hay una respuesta clara a esa pregunta tan importante.

Fuente

Salir de la versión móvil