Autonome droner giver folkeretligt hovedbrud

 
Kun begrænsede fremskridt er der kommet ud af snart ti års forhandlinger for at skabe et juridisk grundlag for krigsførelse med autonome våbensystemer (AWS’er). Det bekymrer Internationalt Røde Kors (ICRC). Folkeretseksperter ser dog optimistisk på muligheden for at bruge AWS og samtidig overholde International Humanitær Lov (IHL)      

 

Af Niels-Birger Danielsen 

”Hvis personer identificeres med legetøjsgeværer, er der ikke tale om et lovligt mål.” 

Den umiddelbart at se selvindlysende pointe blev fremsat af professor Kevin Jon Heller for nylig. Det skete ved et arrangement i regi af Dansk Røde Kors i anledning af 75-året for opdateringen i 1949 af Genevekonventionen (fire konventioner og tre tillægsprotokoller). Han deltog i en paneldebat mellem tre specialister i ’Krigens love’, dvs. humanitær folkeret (IHL – International Humanitarian Law eller International Humanitær Lov). 

Emnet var den hastige udvikling og ibrugtagelse af autonome våbensystemer (AWS, autonomous weapon systems).   Definitionen på AWS’er er ’våben der efter aktivering selvstændigt kan identificere, udvælge og angribe mål uden menneskelig kontrol’.  

Med sit eksempel – en tænkt situation fra Ukraine-krigen – slår Heller ned på en central problematik. De identificerede personer er naturligvis kun lovlige mål, hvis de er bevæbnede med virkelige geværer – og i øvrigt udviser en adfærd, som man forventer af en bevæbnet gruppe i krig. 

Den våbenteknologiske udvikling rejser spørgsmålet, hvorvidt robotter kan være mere humane i krig end mennesker, dvs. om AI-styrede droner og andre autonome våbensystemer (AWS’er) kan foretage denne sondring på linje med eller bedre end mennesker. Kevin Hellers svar er et ja. 

”Autonome systemer kan i stressede situationer være bedre til at identificere objekter end mennesker. Soldaters følelser, menneskelige fejl og stresspåvirkninger kan gøre beslutninger mindre præcise,” siger professoren og tilføjer: 

“Slag mellem dræberrobotter kan måske være mere humane end dem mellem mennesker.”

Kevin Jon Heller, Center for Militære Studier. Foto: Privatfoto

De menneskelige og de teknologiske fejlkilder

Med andre ord har mennesker ifølge Heller de samme fejl som AI-styrede våbensystemer i forhold til at kunne være i overensstemmelse med International Humanitær Lov. Begrænsningen i AWS’erne ligger i programmeringen og manglende evne til at skelne på samme niveau som mennesker. For mennesker – omvendt – kan fejlkilden ligge i f.eks. stress, forudgående fordomme, refleksive handlinger i risikofyldte miljøer og mangel på søvn. 

Det er den hastige udvikling af autonome våbensystemer, der potentielt giver udfordringer i relation til ’Krigens love’. Lovene tilsigter at beskytte civilbefolkningen i et krigsområde. De eksisterer i kraft af de fire Genèvekonventioner fra 1949 – normalt blot omtalt kollektivt som  ’Genevekonventionen’.  

Kevin Jon Heller er professor i Folkeret og International Sikkerhed ved center for Militære Studier, Institut for Statskundskab, Københavns Universitet. Han er amerikaner og internationalt anerkendt ekspert i krigsforbrydersager med et omfattende forfatterskab bag sig. 

Han var f.eks. beskikket forsvarer ved Den Internationale Straffedomstol vedr. det tidligere Jugoslavien i Haag, Holland, for den bosnisk-serbiske leder Radovan Karadzic. Han blev i 2016 idømt 40 års fængsel, og den nu 79-årige Karadzic afsoner i England.  

Røde Kors: Forbyd antipersonel-AWS’er 

Hos Den Internationale Røde Kors Komité (ICRC) vækker brugen af droner i de seneste års krige bekymring. 

Richard Lennane, politisk rådgiver ved ICRC, finder det nødvendigt med nye bindende regler til regulering af autonome våbensystemer – f.eks. et forbud mod AWS’er med antipersonel-virkning.

Han erkender, at en effektiv skelnen mellem lovlig og ulovlig brug principielt er mulig for antipersonel-AWS’ers vedkommende, men i praksis vil de i mange situationer være vanskeligt for militære kommandanter at vurdere, hvornår sådanne våben kan anvendes. 

Lennane, der er australier, anser forudsigelighed af AWS’er som værende af vital betydning. 

”De eksisterende systemer afskærer forbindelsen mellem menneskelig kontrol og beslutningsprocessen. Den største risiko ligger i tab af menneskelig kontrol.” 

AWS-ekspert: Et spørgsmål om design 

Iben Yde, der var den tredje deltager i paneldebatten, er uenig i den måde, spørgsmål om AWS bliver præsenteret på. Hun er Ph.D og leder af Center for Operativ Folkeret, Forsvarsakademiet. 

 ”Den juridiske målestok er ikke, om de autonome våbensystemer fungerer bedre eller dårligere end mennesker, men hvorvidt de kan operere i overensstemmelse med den humanitære folkeret i specifikke scenarier. AWS’er kan designes til at overholde reglerne. Regler for måludpegning kan sætte dem i stand til at overholde ’Krigens love’.” 

Hun mener, at hovedkriteriet inden for en Genevekonventions-baseret tilgang er, hvordan man afvejer risici mod gevinster/fordele. 

”AWS’er kan forbedre beslutningsprocessen ved at forarbejde en stor mængde data. Autonomi er ikke et fysisk forhold ved systemerne, men autonomien ændrer den menneskelige operatørs rolle.” 
 

Iben Yde pointerer, at selv om en traktat skulle forbyde produktion, vil den private sektor drive teknologien fremad og gøre spillover-effekter uundgåelige. 

”Genevekonventionen fra 1949 er teknologi-neutral. De fleste stater vil bestræbe sig på at bruge disse systemer efter reglerne og gøre risici mindst mulige. Et generelt forbud er urealistisk.” 

Under debatten til Røde Kors konference. Deltagere Kevin Jon Heller (tv), Richard Lennane, Iben Yde, Marcus Rubin (th). Foto: Privatfoto

10 år uden større resultater 

Den internationale Røde Kors Komité konstaterer med bekymring, at emnet i almindelighed ikke opfattes som presserende. Det bliver behandlet af en ekspertgruppe vedr. ’dødbringende autonome våbensystemer’ (Governmental Group of Experts on Lethal Autonomous Weapon Systems, GGE LAWS), der er nedsat i forbindelse med Konventionen mod Visse Konventionelle Våben. 

”GGE har diskuteret autonome våbensystemer i 10 år, men kun gjort få fremskridt,” siger Richard Lennane fra i ICRC. 

 “Selv om forsigtighed er nødvendig, er der også brug for mere handling. Hvis 10 år til forløber uden fremskridt, er der en risiko for spredning af AWS’er.” 

Kevin Jon Heller hæfter sig ved, at den eksisterende Genevekonvention ikke explicit kræver menneskelig kontrol. Han finder teknologi-fetichisme skadelig. 

“Der er behov for mikrostudier af kampscenarier for at fastslå, om AWS’er kan outperforme mennesker. Jeg støtter en forsigtig testning. Optimisme må fæstes i at få kontrol over, hvad AWS’er må gøre og ikke gøre.” 

Efter Iben Ydes opfattelse forudsætter Genevekonventionen, at mennesker står centralt i beslutningsprocessen. 

“Menneskelig kontrol forbliver vigtig, og menneske/maskine-samvirke er gavnlig. Regler for AWS bør fokusere på praktiske forholdsregler.” 

For Richard Lennane er det afgørende, at mennesker fortsat holdes ansvarlige for brud på den humanitære folkeret. 

“Spørgsmålet om ansvar skal løses. Mennesker er altid en del af ligningen,” siger han. 

Lyt til resten af Røde Kors konferencen her:

Relaterede artikler

Skriv et svar

Støt forsvarshistorien
Bliv abonnent

Tags

Forfatter

NIELS-BIRGER_10
Cand. phil i historie og uddannet journalist fra Danmarks Journalisthøjskole, som har arbejdet me...

Relaterede artikler

Udgiv på forsvarshistorien.dk

Bliv en del af historien! 
Du kan være med til at sikre forsvarshistorien, så den ikke går tabt. 

Log ind og læs

Har du spørgsmål til dit abonnement? Eller ønsker du at oprette dig som abonnent, så klik her

Tjek vores FAQ her på siden for at finde svar på de fleste spørgsmål.

Kan du ikke finde svar, så kontakt kundeservice på kontakt@forsvarshistorien.dk

TILMELD DIG VORES NYHEDSBREV​

Og modtag forsvarets historie og andet godt på e-mail.