Aunque el uso de drones autónomos parece sacado de una película de acción, la realidad es que estos podrían llegar a ser utilizados como un arma letal en las guerras y el costo por utilizarlos podría ser demasiado grande para la sociedad, ya que, a pesar de contar con alta tecnología , son propensos a cometer errores irreparables.
A pesar de los esfuerzos internacionales por prohibir los drones autónomos, un informe publicado por el Consejo de Seguridad de Naciones Unidas el cual abarca desde octubre de 2019 a enero de 2021, asegura que estos ya fueron utilizados durante la Guerra Civil de Libia . De acuerdo con el documento, el dron utilizado fue el Kargu-2 producido por Defense Technologies Engineering and Trade Inc.
El primer caso registrado de este ataque tuvo lugar en marzo del 2020, en donde Fuerzas Afiliadas a Haftar describen cómo fueron atacados con drones por parte del Gobierno de Acuerdo Nacional para ganar ventaja en el campo de batalla. En el documento de más de 500 páginas se puede leer: “Los convoyes logísticos y las Fuerzas Afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de ‘disparar, olvidar y encontrar’.”
Posteriormente se señala que, debido al uso de estos drones como armas , las Fuerzas Afiliadas a Haftar sufrieron bajas importantes pues “no disponían de ninguna protección real contra ataques aéreos a distancia.” Esta es la primera vez que se detecta el uso de drones autónomos, los cuales, se afirma fueron suministrados por Turquía a las fuerzas libias, lo cual implica una violación al embargo de armas de la ONU a Libia, en donde se señala que ningún Estado miembro puede proporcionar armas a este país.
Kargu-2: ¿Por qué son una amenaza?
El Kargu-2 de la empresa turca armamentística Defense Technologies Engineering and Trade Inc., o mejor conocida como STM presentó por primera vez en 2017 un sistema de munición de drones de ataque de ala rotatoria, el cual fue diseñado, según la compañía, para usarse en operaciones de guerra asimétrica o antiterrorista .
Este puede atacar a objetivos estáticos o en movimiento a través de sus capacidades de procesamiento, así como sus algoritmos de aprendizaje automático. Su peso es de aproximadamente 7 kg y puede permanecer en el aire durante 30 minutos, así como volar a una velocidad de 145 km/h aunque su nueva generación de drones han sido mejorados por lo que son más eficientes.
Estos drones pueden ser operados manual o automáticamente mediante un sistema de coordenadas, en donde el tirador elige el lugar a donde el dron viajará y una vez ahí ejecutará las acciones por las que fue enviado. Entre los militares se le conoce a este proceso como “disparar y olvidar”, lo que significa que una vez que el tirador cargue el dron, éste hará todo el trabajo mientras que los tiradores pueden reubicarse o realizar otras actividades.
La preocupación de los expertos se debe a que la Inteligencia Artificial con la que opera podría fallar y causar estragos irreparables ya que estas armas son las que deciden quién vive o muere, ante ello, está el cuestionamiento de cómo los drones podrían distinguir entre los combatientes y civiles , lo cual ha implicado una serie de conversaciones éticas complejas.
Por ello, se ha buscado la manera en la que estas armas letales autónomas puedan ser prohibidas, sin embargo, potencias mundiales como Rusia , Estados Unidos, Corea del Sur, Israel y Australia han bloqueado la negociación con la ONU para prohibirlas .
¿Qué dicen los expertos?
Personajes celebres han tomado una postura respecto al uso de armas autónomas . Durante una entrevista Daily Telegraph, Brad Smith, presidente de Microsoft afirmó que los robots asesinos son “imparables” y contrae muchos riesgos utilizarlas al igual que las armas nucleares, por lo que considera que es necesaria una nueva Convención de Ginebra adaptada al mundo tecnológico para exigir normas en el uso de estas armas que protejan a civiles y soldados.
Por su parte, Elon Musk, CEO de Tesla considera que la inteligencia artificial puede revelarse contra nosotros, por lo que se ha pronunciado contra el uso de armas autonómas. Él junto a 116 expertos firmaron una carta en 2017 en donde le pedían a la ONU la prohibición de estas armas y el uso de robots asesinos autónomos.
“Las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra . Una vez desarrollados, permitirán que los conflictos armados se combatan a una escala mayor que nunca, y en escalas de tiempo más rápidas de lo que los humanos pueden comprender. Estas pueden ser armas de terror, armas que déspotas y terroristas usan contra poblaciones inocentes, y armas hackeadas para comportarse de maneras indeseables. No tenemos mucho tiempo para actuar. Una vez que se abra esta caja de Pandora, será difícil cerrarla”, se concluye en la carta.
También, se han creado organizaciones que están realizando campañas en contra de estas armas como la Campaña para Detener a los Robots Asesinos , la cual es una coalición de organizaciones no gubernamentales (ONG), la cual ha trabajado desde 2012 en la prohibición de armas totalmente autónomas.