Skal vi udstyre robotter med en menneskelig moral?

Selvkørende biler er en realitet, og inden for 20 år vil de dominere vejene. Derfor er det på høje tid, at vi får en offentlig debat om, hvilken moral bilerne skal udstyres med, mener flere forskere. Her ses Matthias Mueller, administrerende direktør hos Volkswagen, da han i marts præsenterede Volkswagens selvkørende bil. – Foto: Uli Deck/dpa/AP/ritzau

Selvkørende biler breder sig, men kan vi føle os sikre på deres beslutninger? Det kan vi måske, hvis vi udstyrer dem med en moral. Men hvad og hvem skal bestemme den? De overvejelser er nu gjort aktuelle af forskere, der mener at have sat menneskets moral på formel

Du kommer kørende i bil ad en tåget vej. Pludselig står en hjort og en hest foran dig, og du kan kun undgå at ramme den ene. Hvilket dyr ofrer du, og hvilket bliver skånet?

Det var dilemmaer som dette, der mødte 105 forsøgspersoner i et nyt og banebrydende forskningsprojekt på Osnabrück Universitet i Tyskland. De blev alle udstyret med virtual reality-udstyr, der gjorde oplevelsen af at komme kørende så virkelig som mulig. Og det var ikke kun dyr, de mødte, men også mennesker. Et barn med en bold. En ældre kvinde med stok. Hvem lever, hvem dør?

Idéen med forsøget var at afgøre, om der er et mønster i de moralske valg, vi tager, når vi skal vælge mellem to onder. Og hvis der er det, kan man så gøre mønsteret til en algoritme, der kan blive del af eksempelvis en selvkørende bil. Eller spurgt på en anden måde: Er det muligt at give en computer moral som et menneske?

Ja, det er det faktisk, konkluderer det tyske forskerhold bag undersøgelsen. I hvert fald når det gælder vores adfærd i det klassiske dilemma, hvor nogen må dø for at andre kan leve. Langt de fleste i forsøget viste sig nemlig at vælge ud fra en simpel værdisættelse af liv, hvor eksempelvis hesten er mere værd end hjorten, og barnet er mere værd end den ældre dame.

Videnskaben har ellers indtil nu arbejdet ud fra den antagelse, at moralske beslutninger er dybt afhængige af den konkrete sammenhæng og derfor ikke kan generaliseres.

Men den antagelse bør nu ændres, og det rejser en række helt afgørende spørgsmål, siger professor Gordon Pipa, der er seniorforsker på projektet. For hvis maskiner faktisk er i stand til at tage moralske beslutninger som et menneske, ønsker vi så det? Og hvis vi gør, skal de så nødvendigvis imitere menneskets ikke altid ønskelige moral, eller skal vi forbedre den – og i så fald ud fra hvilke idealer?

Andre læser lige nu