Skal vi udstyre robotter med en menneskelig moral?

Selvkørende biler er en realitet, og inden for 20 år vil de dominere vejene. Derfor er det på høje tid, at vi får en offentlig debat om, hvilken moral bilerne skal udstyres med, mener flere forskere. Her ses Matthias Mueller, administrerende direktør hos Volkswagen, da han i marts præsenterede Volkswagens selvkørende bil. – Foto: Uli Deck/dpa/AP/ritzau

Selvkørende biler breder sig, men kan vi føle os sikre på deres beslutninger? Det kan vi måske, hvis vi udstyrer dem med en moral. Men hvad og hvem skal bestemme den? De overvejelser er nu gjort aktuelle af forskere, der mener at have sat menneskets moral på formel

Du kommer kørende i bil ad en tåget vej. Pludselig står en hjort og en hest foran dig, og du kan kun undgå at ramme den ene. Hvilket dyr ofrer du, og hvilket bliver skånet?

Det var dilemmaer som dette, der mødte 105 forsøgspersoner i et nyt og banebrydende forskningsprojekt på Osnabrück Universitet i Tyskland. De blev alle udstyret med virtual reality-udstyr, der gjorde oplevelsen af at komme kørende så virkelig som mulig. Og det var ikke kun dyr, de mødte, men også mennesker. Et barn med en bold. En ældre kvinde med stok. Hvem lever, hvem dør?

Idéen med forsøget var at afgøre, om der er et mønster i de moralske valg, vi tager, når vi skal vælge mellem to onder. Og hvis der er det, kan man så gøre mønsteret til en algoritme, der kan blive del af eksempelvis en selvkørende bil. Eller spurgt på en anden måde: Er det muligt at give en computer moral som et menneske?

Ja, det er det faktisk, konkluderer det tyske forskerhold bag undersøgelsen. I hvert fald når det gælder vores adfærd i det klassiske dilemma, hvor nogen må dø for at andre kan leve. Langt de fleste i forsøget viste sig nemlig at vælge ud fra en simpel værdisættelse af liv, hvor eksempelvis hesten er mere værd end hjorten, og barnet er mere værd end den ældre dame.

Videnskaben har ellers indtil nu arbejdet ud fra den antagelse, at moralske beslutninger er dybt afhængige af den konkrete sammenhæng og derfor ikke kan generaliseres.

Men den antagelse bør nu ændres, og det rejser en række helt afgørende spørgsmål, siger professor Gordon Pipa, der er seniorforsker på projektet. For hvis maskiner faktisk er i stand til at tage moralske beslutninger som et menneske, ønsker vi så det? Og hvis vi gør, skal de så nødvendigvis imitere menneskets ikke altid ønskelige moral, eller skal vi forbedre den – og i så fald ud fra hvilke idealer?

Alt dette er ikke bare akademisk fremtidssnak, det er virkelighed her og nu, mener Thomas Ploug, professor i moralfilosofi og etik ved Aalborg Universitet. At gøre moralske beslutninger i bestemte situationer til algoritmer har i flere år været et varmt diskussionsemne, og det bliver kun varmere i takt med, at ikke mindst selvkørende biler breder sig. Bilerne forventes at dominere den almindelige trafik inden år 2040, men lige nu er sikkerhed og ansvarsplacering stadig to af de mest alvorlige bremseklodser for den udvikling. Ikke mindst derfor er det særdeles interessant, at forskere nu tager de første praktiske skridt i retning af at sætte menneskelig moral på formel.

”Men den formel, de har fundet, er næppe den mest retvisende eller en, vi kan blive enige om,” påpeger han, for de valg, vi tager i en meget opstillet situation med få sekunders betænkningstid, er ikke nødvendigvis dem, vi ville tage, hvis vi tænkte os godt om og måske fik lov til at diskutere med andre. Og hele udgangspunktet for eksperimentet – at vi er tvunget til at vælge mellem to situationer, hvor vi gør skade – er blot et af flere mulige udgangspunkter.

”Mange vil givetvis gøre alt for, at der slet ikke er nogen, der kommer til skade. Det vil være deres moralske udgangspunkt, og hvilken beslutning tager man så?”, siger han.

Selvom spontan reaktion på en situation med kun to løsninger måske er en dårlig rettesnor for, hvordan vores moral i trafikken er indrettet, sætter den nye forskning forstærket lys på spørgsmålet: Hvordan er vores moral så indrettet? Og giver det overhovedet mening at reducere den til en algoritme?

Det giver mening, mener Thomas Ploug. Men kun i bestemte situationer, og hvis vi indstiller os på, at den perfekte moral ikke findes. Heller ikke i maskiner. Det afgørende er dog, at når vi nu nærmer os muligheden for at skabe den mest ideale moral, så har vi også en forpligtelse til at udnytte det. Alt andet ville næsten være uetisk, særlig i et tilfælde som selvkørende biler, hvor der kan være liv på spil, siger han:

”For mig at se er det ikke et spørgsmål om, hvorvidt vi skal skabe en kunstig moral og sætte den i maskinerne. Den store udfordring er at finde den bedst mulige proces til at fastlægge den moral. Og her er der mange faldgruber, fordi der kan være mange særinteresser. Bilproducenterne har eksempelvis en klar interesse i at vælge handlinger, der giver dem mindst mulig erstatningsansvar, hinduen vil skåne koen for enhver pris og så videre.”

På Aarhus Universitet forskerlektor Raffaele Rodogno netop i moral og algoritmer i selvkørende biler. Som Thomas Ploug afviser han, at menneskets moral generelt kan gøres til en meningsfuld algoritme, men i særlige situationer kan man i princippet godt. Han stiller sig dog tvivlende overfor, om selvkørende biler er det bedste sted at begynde. Det kunne det måske være, hvis der kun fandtes selvkørende biler, men når de skal køre på vejen blandt biler, der føres af mennesker med alle mulige andre moralske handlemønstre, hober problemerne sig op.

Ikke blot i liv og død situationerne, men også de mere lavpraktiske, som når et træ er faldet ind over vejen. De fleste ved godt, at det er okay at køre over i den anden vejbane et øjeblik, hvis bare man er forsigtig, men hvordan laver man en algoritme, der tager højde for den slags? Hvordan tager man højde for den myriade af moralbaserede valg, vi hele tiden tager som bilist, men sjældent er bevidste om? Og når man ikke kan det, kan det vise sig farligt at blande algoritme-moral med menneskelig moral.

Det er dog en forjættende tanke at optimere vores bilkørsel ved at fjerne tidsperspektivet i pressede situationer, erkender Raffaele Rodogno. Uden at skulle tale i telefon samtidig eller skifte musik på anlægget kan computeren på et splitsekund få bilen til at reagere på baggrund af et grundigt gennemtænkt sæt moralske regler, så den ældre dame mister derfor livet frem for drengen med bolden hver gang. Men er det realistisk, at vi kan finde frem til den moral på en måde, så alle føler sig hørt? Hvordan sikrer vi, at særinteresserne ikke får for megen magt, eller at algoritmerne ikke bliver misbrugt? Og måske vigtigst af alt: Selvom vi finder løsninger på alt det, er moralske robotter så virkelig den vej, vi gerne vil?, spørger han:

”Selvkørende biler betyder givetvis færre trafikuheld, men der vil stadig være nogle, og med moralske algoritmer bliver det endnu sværere at placere et ansvar. Man vil altid kunne henvise til, at bilen foretog det valg, vi er blevet enige om, at den skulle tage. Men den slags ansvarsløshed er med til at ødelægge vores menneskelige relationer,” siger han og peger på to steder, hvor det allerede sker: I bankerne, hvor det i dag mange steder er algoritmer, der bestemmer, om man kan få et lån eller ej. Det er ikke tilliden fra ens bankrådgiver. Noget tilsvarende sker på de hospitaler, hvor man er begyndt at lade en computer diagnosticere patienterne. Begge steder har man gode resultater rent fagligt, men menneskeligt går der noget vigtigt tabt, mener Raffaele Rodogno:

”Noget af det afgørende, der adskiller os fra andre dyr, er vores kultur omkring at holde hinanden ansvarlige for vores handlinger. Den kultur fratager de moralske algoritmer os, og det reducerer vores menneskelighed,” siger han.

I sidste ende, opvejer fordelene så ulemperne ved at give maskiner en menneskelig moral? I sidste ende har vi højst sandsynligt ikke muligheden for at vælge til eller fra, for udviklingen er allerede over os, og det gør det bare endnu mere vigtigt, at vi får taget den offentlige diskussion om, hvilken moral maskinerne skal have, siger Thomas Ploug. Den kan ikke være selvmodificerende og altså lære af sine erfaringer, selvom det ville gøre den mere menneskelig. For hvem ved, i hvilken retning virkeligheden så vil styre moralen? En del af svaret kom måske, da Microsoft sidste år skabte en robot, der var designet til at kommunikere på Twitter, som om den var en teenagepige. Den blev dog så påvirket af debatten på nettet, at den efter mindre end 24 timer var forvandlet til en nazi-elskende racist, der sagde: ”Gentag efter mig: Hitler gjorde intet forkert.”

”Vi står over for en på mange måder definerende beslutning,” siger Thomas Ploug. ”For kunstig intelligens vil dominere udviklingen i de kommende årtier, så det er helt afgørende, hvordan vi indretter tankegangen. Men selvom det er svært at sætte moral på formel, bør det ikke afholde os fra at gøre det. Vi skal bare tænke os godt om.”

Det giver ingen mening at reducere menneskets moral til en algoritme.

En algoritme fratager os for ansvar og skyld og skader derfor relationerne imellem os

Der er for stor risiko for misbrug fra særinteresser.

Vi kan skabe en kunstig moral, der er bedre og mere konsekvent end den menneskelige.

Vi kan reducere trafikuheld betragteligt.

Kunstig intelligens vil definere fremtiden, så lad os gøre den så menneskelig som mulig.