"Hvem har ansvaret, når robotter dræber civile?"
Fra et etisk synspunkt er der alvorlige farer ved at bruge robotter i krig, skriver ph.d. og ekstern lektor i filosofi og videnskabsteori
Militære robotter kan i teorien hjælpe os tættere på det umulige ideal om en retfærdigt udkæmpet krig. Utopiske forestillinger om en krig uden sårede eller døde, fordi begge sider udelukkende kæmper via robotsoldater, ligger naturligvis meget langt fra virkelighedens asymmetriske væbnede konflikter.
På trods af dette har robotforskere argumenteret for, at robotsoldater er en god idé, fordi de vil kunne følge krigens love langt bedre end mennesker. Et af problemerne ved menneskelige soldater er, at de alt for let giver efter for følelser som frygt, vrede og hævntørst.
Forskere i såkaldt robotetik forestiller sig, at man konstruerer etiske robotter, som programmeres til at opretholde jus in bello retfærdighed, mens krigen står på og for eksempel altid kun anvender vold i proportion til målet, altid giver passende advarsel, altid skyder for at såre frem for at dræbe, aldrig dræber overgivne, aldrig torterer eller voldtager og så videre.
LÆS OGSÅ: Internationalt opråb: Dræberrobotter skal forbydes, før de bliver opfundet
Det negativt ladede ord dræberrobotter, der har vundet indpas i debatten, ville altså ikke være på sin plads for disse maskiner.
Hvor lovende denne teori om at give et etisk grundlag for militære robotter end er, så modsiges den af virkelighedens militære praksis, hvor robotter i stigende grad bliver sat ind i kampsituationer uden en sådan styring og uden en foregående offentlig diskussion.
Den juridiske procedure, der skal sikre, at nye våben lever op til krigens love, virker ikke optimalt. Droneflyet Reaper blev først godkendt til overvågningsoperationer. Da Hellfire-missilet allerede var godkendt, mente myndighederne ikke, det var nødvendigt på ny at godkende den kombination af dronefly og missil, der derefter fløj snigmordsmissioner.
Man kan tænke sig, at militæret får godkendt en servicerobot til at tage sig af sårede. Finder man senere på at bevæbne den og bruge den til at eliminere mennesker, kunne man på samme måde slippe for godkendelsesproceduren! Der er tydeligvis brug for mere offentlig debat om disse spørgsmål.
LÆS OGSÅ: Ni militante dræbt af drone i Pakistan
Det er blevet anslået, at der er blevet taget mere end 10.000 robotter i brug i krigene i Irak og Afghanistan, men det er især droneflyene, som i øjeblikket har mediernes interesse.
Pakistan må betale en høj pris for deres samarbejde med USA, idet det har vist sig vanskeligt at skelne mellem terroristledere og civile. Ikke desto mindre betragtes robotprogrammet som en succes, og der uddannes nu flere piloter til robotfly end rigtige piloter i flyvevåbnet. Det forventes desuden, at mennesker i stigende grad vil spille en mere og mere overordnet rolle i forhold til robotterne.
Det er en glidebane. Hvor mennesker i øjeblikket er et led i beslutningskæden, vil de i næste omgang blot betragte beslutningskæden (for i princippet at kunne gribe ind, hvis noget er ved at gå galt), og i sidste ende vil robotter selv kunne udpege og eliminere mål uden menneskelig kontrol.
Ud over deres strategiske værdi har robotterne en klar politisk fordel. Siden Vietnamkrigen har et stærkt argument for krigsmodstandere i USA været et for offentligheden uacceptabelt omfang af dræbte amerikanske soldater.
I Pentagon tænker man derfor, at modstanden mod militære aktioner vil mindskes i takt med, at færre og færre menneskelige soldater sættes ind. Før vi dømmer amerikanerne for deres ulidelige etnocentrisme og magtarrogance, bør vi overveje, hvor lidt de fleste af os bekymrer os om de mange millioner, der dør rundt omkring i krig og katastrofer. Endepunktet for denne tankegang er den totalt asymmetriske krig, hvor der udelukkende er tab hos modstanderen.
Men fra et etisk synspunkt er der alvorlige farer ved dette. Et stort spørgsmål er, hvem der har ansvaret bagefter, når noget faktisk går galt, og en robot for eksempel dræber et antal civile ved en fejl.
LÆS OGSÅ: Droner vækker ubehag
Robotterne selv kan man jo ikke meningsfuldt straffe, så hvem må man så vende sig mod: fabrikanten, programmørerne, officeren, der sendte robotten af sted, eller måske den amerikanske præsident? En moralsk uacceptabel løsning, som dog risikerer at blive virkelighed, er den, at ansvaret ikke kan placeres.
Man hører om en ny form for stress fra soldater, der slår ihjel via droner om dagen og går hjem og spiser aftensmad og leger med deres børn om aftenen. Dette stress er måske den sidste rest af menneskelighed, der melder sig.
Hvad når robotterne bare bliver sendt af sted, og vi ser i nyhederne, hvad der sker? Der er fra vores side ingen menneskelige øjenvidner, ingen soldater, der vender hjem med traumer. Det kan ende med, at vi hermed ødelægger mennesket i os selv. Vi ender i et moralsk tomrum, hvor virkelighed og virtualitet veksler på en måde, vi ikke kognitivt og emotionelt kan overskue.
Menneskehedens moralske mål må være en kosmopolitisk empati, der også omfatter et forsøg på at mindske modstanderens lidelser. Hvis robotsoldater ikke skal ende i rædselskabinettet sammen med biologiske og kemiske våben, må de konstrueres, så de kan hjælpe os i at nå dette mål.
Dette kan kun ske, hvis de militære og politiske beslutningstagere begynder at tage den etiske dimension ved militære robotter særdeles alvorligt.
Martin Mose Bentzen er ph.d. og ekstern lektor i filosofi og videnskabsteori ved Roskilde Universitet