La inteligencia artificial como arma de guerra

La inteligencia artificial está revolucionando la manera de hacer la guerra con sistemas autónomos capaces de identificar objetivos militares. Aun así, esta nueva carrera tecnológica-armamentística genera preocupación en la comunidad internacional que insiste en la necesidad de mecanismos de gobernanza para gestionar su uso.

 

La militarización de la inteligencia artificial no es ninguna novedad. Por ejemplo, los sistemas de misiles de ataque y de defensa antiaérea hace décadas que son capaces de seleccionar y eliminar objetivos de manera autónoma. Sin embargo, los últimos avances en este campo tecnológico han elevado la integración de la IA en los sistemas armamentísticos hasta un nivel sin precedentes.

La guerra en Ucrania ha demostrado la eficacia del uso de los drones autónomos, tanto por parte de los rusos como de los ucranianos, pero esta tecnología está siendo utilizada en una amplia gama otras aplicaciones militares. Desde sistemas de reconocimiento facial hasta vehículos autónomos, la IA permite a las fuerzas armadas mejorar la precisión, la velocidad y la capacidad de toma de decisiones en las operaciones de combate. Además, los algoritmos de aprendizaje profundo pueden analizar enormes cantidades de datos para optimizar el mantenimiento de sistemas de armas, predecir los movimientos del enemigo, o mejorar las tácticas y la estrategia de una intervención militar.

Así mismo, algunos de estos sistemas autónomos posibilitan misiones, como por ejemplo incursiones, ataques aéreos y asesinatos patrocinados por un Estado, que de lo contrario difícilmente se producirían a causa del peligro de perder los pilotos o las repercusiones políticas, diplomáticas o en conformidad con el derecho internacional. Por lo tanto, este cambio de paradigma plantea una serie de cuestiones éticas y legales sobre la responsabilidad del uso y el control de los sistemas armamentísticos autónomos que han generado preocupación en la comunidad internacional.

 

Algoritmos que seleccionan objetivos en Gaza

El genocidio de Israel contra el pueblo Palestino ha hecho todavía más paténtente la necesidad de instaurar mecanismos de gobernanza que regulen el uso de la IA en el ámbito militar. Seis oficiales de inteligencia israelíes afirmaron en un informe, elaborado por el periodista de investigación Yuval Abraham y publicado por la revista israelí-palestina +972, que los sistemas de inteligencia artificial han ejercido un papel clave en la identificación —y posible identificación errónea— de decenas de miles de objetivos en Gaza.

Durante los primeros días de la intervención militar, este sistema de inteligencia artificial denominado Lavender, hasta ahora secreto, usó una base de datos para identificar 37.000 objetivos potenciales en función de sus supuestos vínculos con la resistencia Palestina. Los mandos del ejército dieron su aprobación para que los oficiales adoptaran las listas de personas a matar seleccionadas por Lavender, sin ningún requisito de comprobar o cuestionar las selecciones del algoritmo o de examinar los datos de inteligencia en las cuales se basaban.

Uno de los oficiales que utilizaron Lavender ponía en entredicho que el papel de los humanos en el proceso de selección tuviera sentido. “Yo invertía 20 segundos por cada objetivo en esta fase, y hacía docenas de ellos cada día. No suponía ningún valor añadido como ser humano, aparte de ser un sello de aprobación. Ahorraba mucho de tiempo.”

Otros oficiales describían cómo, para determinadas categorías de objetivos, las fuerzas israelíes aplicaban márgenes “pre-autorizados” en cuanto al número estimado de civiles que podían ser asesinados antes de que se autorizara un ataque. Concretamente, durante las primeras semanas del bombardeo se les permitía matar hasta 20 civiles durante ataques aéreos contra militantes de bajo rango, destruyendo casas enteras y matando a todos sus ocupantes.

Expertos en derecho humanitario internacional consultados por el diario The Guardian expresaron su alarma por la información que las fuerzas israelíes aceptaran y autorizaran premeditadamente daños colaterales de este gran número de civiles, apuntando que los militares tienen que evaluar la proporcionalidad de cada ataque individual. Un hecho que es poco probable que se produzca, salvo que se desarrollen y se obliguen a cumplir todo un conjunto normas éticas y reglamentarias en la hora de militarizar el uso de la IA.

 

11Onze es la fintech comunitaria de Cataluña. Abre una cuenta descargando la app El Canut para Android o iOS. ¡Únete a la revolución!

 

Si te ha gustado este artículo, te recomendamos:

Economía

El rentable negocio de la guerra

4min lectura

La Cámara de Representantes de los Estados Unidos ha...

Economía

¿Estamos a las puertas de un nuevo orden mundial?

5min lectura

Los imperios surgen y desaparecen de manera...

Cultura

Geopolítica: de la hegemonía a la multi-polaridad

4min lectura

El tira y afloja geopolítico de los últimos años entre Oriente...



Equip Editorial Equip Editorial
  1. Joan Santacruz CarlúsJoan Santacruz Carlús says:
  2. Manuel Bullich BuenoManuel Bullich Bueno says:

Deja una respuesta

App Store Google Play