Kan en robot afgøre, om du har en depression?

Robotten spørger til familien, til følelser og fortrydelser, men lytter ikke rigtigt, den registrerer udelukkende ansigtsudtryk og stemmeleje. Den lægger også mærke til pauser og til, hvor man kigger hen, når man svarer på spørgsmålene.

Ja, konkluderer en stor undersøgelse. Faktisk kan en robot være bedre end en psykolog til at åbne et menneske, viser erfaringer

Robotter kan efterhånden mange ting, men de har stadig meget at lære om menneskelige følelser.

Det er den almindelige opfattelse, men den amerikanske psykolog og forskningsprofessor Albert Rizzo tænkte anderledes og var med til at designe Ellie.

Ellie er et computerprogram. Det er designet til at diagnosticere post-traumatisk stress og depression ud fra en række spørgsmål, det stiller folk via en skærm.

Programmet spørger til familien, til følelser og fortrydelser, men lytter ikke rigtigt, det registrerer udelukkende ansigtsudtryk og stemmeleje. Det lægger også mærke til pauser og til, hvor man kigger hen, når man svarer på spørgsmålene.

Robottens konklusioner er påfaldende præcise.

Flere studier har vist, at den er så godt som lige så god til at diagnosticere post-traumatisk stress og depression som et stort udvalg af psykologer. Og hvad der er lige så mærkværdigt, så er der flere eksempler på, at robotten er bedre til at få eksempelvis krigsveteraner til at åbne sig.

En af dem er Jody Mitic, en canadisk soldat, som mistede begge sine fødder, da han blev ramt af en bombe i Afghanistan.

"Det virkede som om, at Ellie virkelig lyttede," forklarer han til det amerikanske radioprogram Planet Money.

"Med mange terapeuter kan man se en reaktion i deres øjne, når man begynder på at tale om de mere voldsomme ting, man har set eller gjort. Men det problem var der ikke med Ellie."

Ellie bruges foreløbigt kun til at diagnosticere, men planen er, at programmet skal ud i virkeligheden og finde soldater, der har et problem. Derfra tager mennesker over.

Robotten spørger til familien, til følelser og fortrydelser, men lytter ikke rigtigt, det registrerer udelukkende ansigtsudtryk og stemmeleje. Det lægger også mærke til pauser og til, hvor man kigger hen, når man svarer på spørgsmålene.