Mine eelmisele lehele

Kokkuvõte

René Värk

Relvakonfliktid on reaalsus. Rahvusvahelise humanitaarõiguse ülesanne ei ole relvakonflikte keelustada või ära hoida, vaid reguleerida inimeste käitumist relvakonfliktides ja muuta need võimalikult humaanseteks. Sellele lisavad oma panuse inimõigused, mis tugevdavad rahvusvahelist humanitaarõigust või täidavad viimasest jäänud tühimikud. Niimoodi on relvakonfliktides kehtiv õigusnormistik muutunud järjest tugevamaks, kuid kindlasti ei saa öelda, et olukord on ideaalne või et kõik küsimused on leidnud lahenduse.

Kriitikud ütlevad, et riigid valmistuvad eelmiseks sõjaks. Lihtsustatult öeldes otsivad riigid lahendusi probleemidele, mis tulid välja eelmises sõjas. Sama võib täheldada ka õiguse puhul. Rahvusvaheline humanitaarõigus on kasvanud koos relvakonfliktidega. Muudatused õiguses on enamasti reaktsioon varasematele probleemidele ja rikkumistele. Näiteks teise maailmasõja järel tõdesid riigid, et varasem õigusraamistik ei sobinud muutunud sõjapidamise olemusega, ja võtsid 1949. aastal vastu Genfi konventsioonide uue paketi, mis asendas varasemad, erinevatel aegadel loodud Genfi konventsioonid. Aga ikka võib kriitiliselt tõdeda, et sõjapidamise reeglid on ühe sõja võrra maas.

Alati on näha, et sõjapidamises on midagi uut tulemas. Seetõttu tuleb õiguse arengut silmas pidades ette mõelda, mida ja kuidas reguleerida. Kuigi praktilised kogemused lihtsustavad reeglite loomist, ei tohiks õigusloome protsessi eeltingimuseks olla praktikas esile kerkinud probleemid ja rikkumised. Võimaluse korral tuleks neid ennetada, pakkudes õigusraamistikku.

Mis on meid ootamas sõjapidamises? Varem või hiljem tuleb tõsiselt tegelda autonoomsete relvasüsteemidega, kus tehisintellekt on otsuste tegemisel kesksel kohal ja inimese osalus on minimaalne. Praegu on kasutusel mitmesugused automaatsed relvasüsteemid, mis on programmeeritud reageerima standardsetele olukordadele ja inimesel on võimalik sekkuda süsteemi tegevusse (nt peatada rünnak, kui on näha, et relvasüsteem on teinud vea). Autonoomne relvasüsteem peaks olema võimeline ise otsima ja tuvastama sõjalisi sihtmärke, valima ründamiseks sobivad vahendid ja viisid, hindama proportsionaalsust ja võimalikku kaasnevat kahju jne. Kuivõrd on tehisintellekt võimeline selliseid otsuseid tegema? Seda enam, et need ei põhine tingimata objektiivsetel asjaoludel, vaid inimlikel valikutel ja poliitilistel suunistel. Kas me tahame ja julgeme anda tehisintellektile õiguse teha lõplik otsus elu ja surma üle? Need ei ole ainult rahvusvahelise humanitaarõiguse, vaid ka inimõiguste küsimused.