Forskere advarer: Dræber-robotter bør forbydes

Forskere mener, at udviklingen af kunstig intelligens er nået så langt, at de frygter, at teknologien vil blive brugt til autonome våben - også kaldet kaldet ‘killer robots’. Her ses en Iron Man-fan, der har klædt sig ud som filmens helt Tony Stark - også kendt som Iron Man - der spilles af Robert Downey Jr.

Professor Stephen Hawking har sammen med over 1.000 forskere i robotteknologi og kunstig intelligens skrevet et åbent brev til verdens magthavere og regeringsmagter, hvori de advarer om udviklingen af de såkaldte dræber-robotter

Det lyder som noget fra en dommedagsprofetisk robotfilm med Arnold Schwarzenegger i hovedrollen.

Men den er god nok.
 
Professor Stephen Hawking har sammen med over 1.000 forskere i robotteknologi og kunstig intelligens skrevet et åbent brev til verdens magthavere og regeringsmagter, hvori de advarer om, at udviklingen af kunstig intelligens er nået så langt, at de frygter, at teknologien vil blive brugt til såkaldte autonome våben.
 
Våbnene bliver mere populært kaldet ‘killer robots’ (dræber-robotter), fordi de selv kan opspore mål og skyde dem ned.
 
»Vi er nået til et punkt, hvor kunstig intelligens er inden for rækkevidde, hvis ikke lovligt, så praktisk, inden for år - ikke årtier, og indsatsen er høj. Autonome våben er blevet beskrevet som den tredje revolution indenfor krigsførelse efter krudt og atomvåben,« skriver forskerne i brevet, der beder verdens magthavere om ikke at benytte sig af autonome våben.
 
Læs også: Kunstig intelligens lærer sig selv at slå mennesker i videospil 

Det lyder vildt, men den verdenskendte, danske robotforsker Henrik Schärfe forsikrer, at der er tale om en reel bekymring, og at brevet er »blodig alvor«. 
 
»Vi er nu der, hvor vi er tvunget til at tage stilling til de etiske, eksistentielle og politiske spørgsmål, som vi har diskuteret teoretisk i mange år. Det varer ikke længe, før der kører selvkørende biler rundt i Danmark, og algoritmerne har længe styret aktiemarkedet. Kunstig intelligens har så stor indflydelse, at vi ikke bare kan udvikle systemerne uden at forholde os til deres konsekvenser. Erklæringen afspejler en bekymring, som er meget stærk i forskningsmiljøet,« siger Henrik Schärfe til Morgenavisen Jyllands-Posten.
 
Brevet er lavet af gruppen ‘Future of Life Institute', der arbejder for at mindske »eksistensielle risici for menneskeheden«, og de advarer mod at starte et »militært ræs ud i kunstigt intelligente våben«. 
 
Læs ogsåForskere vil lave ’Google Street View’ i hjernen 
 
I dag ser vi allerede droner, der skyder mål ned - mennesker såvel som bygninger - mens piloten selv sidder i sikkerhed flere tusind kilometer væk. Ifølge forskerne er det næste naturlige skridt i udviklingen, at dronen klarer det hele selv - uden behov for en pilot, der trykker på aftrækkeren. Og det vil de undgå.
 
På Future of Life Institute er de ikke bange for at bruge store ord om truslen fra robotterne, og på deres hjemmeside kan man blandt andet læse, at »teknologi har givet liv muligheden for at blomstre som aldrig før... eller til at selvdestruere«. 

Blandt bestyrelsens medlemmer finder man udover Stephen Hawking også ingeniøren og entreprenøren Elon Musk, der blandt andet står bag PayPal og Tesla Motors, og ikke mindst skuespilleren Morgan Freeman.

Der er desuden indsamlet signaturer fra Apples med-grundlægger Steve Wozniak, chefen for Googles Deepmind-afdeling, Demis Hassabis, professor Noam Chomsky og Googles research-leder Peter Norvig.
 
Læs også: Angst for matematik kan ses i hjernen 

Ud over de prominente navne har intet mindre end 1.000 førende forskere i robotteknologi og kunstig intelligens valgt at bakke op om budskabet med deres underskrift.

En af de ting, som forskerne frygter, at de selvtænkende robotkrigere kan føre med sig, er for det første mere krig i verden. De skriver, at når robotterne selv kan udføre krig på menneskers vegne, så vil konsekvenserne ved at gå i krig også være mindre for et land - og det kan potentielt skabe mere krig i verden. Specielt, når teknologien bliver billig, hvilket den ifølge forskerne også vil blive hurtigt.
 
»Hvis en større militærmagt først begynder på udviklingen af autonome våben, så vil et globalt våbenræs være nærmest uundgåeligt, og resultatet af denne teknologiske sti er åbenlys: Autonome våben vil blive fremtidens kalashnikovs,« skriver gruppen i brevet.
 
Forskerne bag brevet vil også forbyde de autonome våben, fordi de kan kaste et dårligt lys over forskning i kunstig intelligens, som de også mener kan bringe mange positive fremskridt med sig.
 
Tilmeld dig Videnskab.dk’s nyhedsbrev og få flere spændende artikler om ny forskning.