La intel·ligència artificial com a arma de guerra

La intel·ligència artificial està revolucionant la manera de fer la guerra amb sistemes autònoms capaços d’identificar objectius militars. Tanmateix, aquesta nova carrera tecnològica-armamentística genera preocupació en la comunitat internacional que insisteix en la necessitat de mecanismes de governança per a gestionar el seu ús.

 

La militarització de la intel·ligència artificial no és cap novetat. Per exemple, els sistemes de míssils d’atac i de defensa antiaèria fa dècades que són capaços de seleccionar i eliminar objectius de manera autònoma. No obstant això, els últims avanços en aquest camp tecnològic han elevat la integració de la IA en els sistemes armamentístics fins a un nivell sense precedents.

La guerra a Ucraïna ha demostrat l’eficàcia de l’ús dels drons autònoms, tant per part dels russos com dels ucraïnesos, però aquesta tecnologia està sent utilitzada en una àmplia gamma d’altres aplicacions militars. Des de sistemes de reconeixement facial fins a vehicles autònoms, la IA permet a les forces armades millorar la precisió, la velocitat i la capacitat de presa de decisions en les operacions de combat. A més, els algoritmes d’aprenentatge profund poden analitzar enormes quantitats de dades per optimitzar el manteniment de sistemes d’armes, predir els moviments de l’enemic, o millorar les tàctiques i l’estratègia d’una intervenció militar.

Així mateix, alguns d’aquests sistemes autònoms possibiliten missions, com ara incursions, atacs aeris i assassinats patrocinats per un Estat, que altrament difícilment es produirien a causa del perill de perdre els pilots o les repercussions polítiques, diplomàtiques o de conformitat amb el dret internacional. Per tant, aquest canvi de paradigma planteja una sèrie de qüestions ètiques i legals sobre la responsabilitat de l’ús i el control dels sistemes armamentístics autònoms que han generat preocupació en la comunitat internacional.

 

Algorismes que seleccionen objectius a Gaza

El genocidi d’Israel contra el poble palestí ha fet encara més palesa la necessitat d’instaurar mecanismes de governança que regulin l’ús de la IA en l’àmbit militar. Sis oficials d’intel·ligència israelians van afirmar en un informe, elaborat pel periodista d’investigació Yuval Abraham i publicat per la revista israeliana-palestina +972, que els sistemes d’intel·ligència artificial han exercit un paper clau en la identificació —i possible identificació errònia— de desenes de milers d’objectius a Gaza.

Durant els primers dies de la intervenció militar, aquest sistema d’intel·ligència artificial denominat Lavender, fins ara secret, va fer servir una base de dades per a identificar 37.000 objectius potencials en funció dels seus suposats vincles amb la resistència Palestina. Els comandaments de l’exèrcit van donar la seva aprovació perquè els oficials adoptessin les llistes de persones a matar seleccionades per Lavender, sense cap requisit de comprovar o qüestionar les seleccions de l’algorisme o d’examinar les dades d’intel·ligència en les quals es basaven.

Un dels oficials que van utilitzar Lavender posava en dubte que el paper dels humans en el procés de selecció tingués sentit. “Jo invertia 20 segons per cada objectiu en aquesta fase, i feia dotzenes d’ells cada dia. No suposava cap valor afegit com a ésser humà, a part de ser un segell d’aprovació. Estalviava molt de temps.”

Altres oficials descrivien com, per a determinades categories d’objectius, les forces israelianes aplicaven marges “pre-autoritzats” quant al nombre estimat de civils que podien ser assassinats abans que s’autoritzés un atac. Concretament, durant les primeres setmanes del bombardeig se’ls permetia matar fins a 20 civils durant atacs aeris contra militants de baix rang, destruint cases senceres i matant a tots els seus ocupants.

Experts en dret humanitari internacional consultats pel diari The Guardian van expressar la seva alarma per la informació que les forces israelianes acceptessin i autoritzessin premeditadament danys col·laterals d’aquest gran nombre de civils, apuntant que els militars han d’avaluar la proporcionalitat de cada atac individual. Un fet que és poc probable que es produeixi, tret que es desenvolupin i s’obliguin a complir tot un conjunt normes ètiques i reglamentàries a l’hora de militaritzar l’ús de la IA.

 

11Onze és la fintech comunitària de Catalunya. Obre un compte descarregant l’app El Canut per Android o iOS. Uneix-te a la revolució!

Si t'ha agradat aquest article, et recomanem:

Economia

El rendible negoci de la guerra

4min lectura

La Cambra de Representants dels Estats Units ha aprovat...

Economia

Estem a les portes d’un nou ordre mundial?

5min lectura

Els imperis sorgeixen i desapareixen de manera...

Cultura

Geopolítica: de l’hegemonia a la multipolaritat

4min lectura

L’estira-i-arronsa geopolític dels últims anys entre Orient...



Equip Editorial Equip Editorial
  1. Joan Santacruz CarlúsJoan Santacruz Carlús says:
  2. Manuel Bullich BuenoManuel Bullich Bueno says:

Deixa una resposta

App Store Google Play