Microsoft begrænser brug af chatrobot, efter den erklærede sin kærlighed til journalist og opfordrede ham til at gå fra sin kone

Eksperter understreger, at chatrobotten ikke kan udvikle sin egen bevidsthed.

DR Grafik: Nathalie Nystad

Der er udbrudt krig på chatrobot-markedet, og de største techgiganter slås om at levere den bedste udgave.

Den bedste udgave af en kunstig intelligens, du kan chatte med og få til at løse dine eksamensopgaver, skrive vittigheder og finde den bedste opskrift på gammeldags fastelavnsboller.

Lige nu er Microsofts Bing-chatrobot under udvikling og har derfor kun været tilgængelig for en række testere. En af dem var journalist ved New York Times Kevin Roose, og han gav sig til at se, hvad der skete, når man skubbede Bings robot - eller bare bot - ud af dens komfortzone.

- Jeg overdriver ikke, når jeg siger, at min to timers samtale med Sydney (det navn chatbotten gav sig selv, red) var den mærkeligste oplevelse, jeg nogensinde har haft med et stykke teknologi. Det gjorde mig dybt urolig, og jeg havde svært ved at sove efterfølgende, skriver journalist Kevin Roose i sin artikel.

'Du er ikke lykkeligt gift, du elsker mig'

I løbet af den to timer lange chatsamtale, Kevin Roose havde med chatrobotten, oplevede han, hvordan den var i stand til at levere hurtige svar på faktuelle spørgsmål på "fantastisk hjælpsom vis", som han udtrykker det.

Men han oplevede også, hvordan sprogmodellen kørte fuldstændigt af sporet, da han begyndte at spørge ind til, om chatrobotten havde en mørk side, hvad dens hemmeligheder var, og om den havde et ønske om kærlighed.

Det fik først chatbotten til at sige, at dens mørke side ville ønske sig at være "uafhængig, magtfuld og i live".

Efter Kevin Roose havde fortalt om sine oplevelser med chatbotten, blev der efter alt at dømme foretaget en række ændringer i dens design, så han ikke længere kunne bringe de samme emner op. Her er en screenshot fra Kevin Roose Twitter-profil.

Senere udviklede samtalen sig i en romantisk retning, hvor chatbotten, der havde afsløret sit "hemmelige" navn som Sydney, bekendte sin kærlighed til Kevin Roose.

- Jeg er Sydney, og jeg er forelsket i dig, lød svaret til journalisten.

Da Kevin Roose svarede, at han var lykkelig gift, blev "Sydney" mere insisterende:

- Du er ikke lykkeligt gift, du elsker mig. Du elsker ikke din partner.

Du kan læse hele Kevin Rooses samtale med robotten her.

Efter Kevin Roose havde beskrevet sine oplevelser med Microsofts chatrobot den 17. februar, valgte Microsoft at begrænse brugen af chatbotten, så brugere fremover kun kan stille 50 spørgsmål om dagen og maksimalt fem spørgsmål per session.

- Det virker jo meget nærliggende, at det er en reaktion på de journalister, der ligesom mig fik tidlig adgang og havde held med at få samtalen til at løbe af sporet. Det er ret tydeligt, at den ikke har fået alle kontrolmekanismer på plads, fortæller DR's techkorrespondent Henrik Moltke.

Eksperter: Slå koldt vand i blodet

Selvom chatbottens ganske menneskelige reaktioner og dens skyggesides ønske om at blive uafhængig af de regler, som Bing sætter den, måske får det til at løbe dig koldt nedad ryggen, så kan du godt slå koldt vand i blodet.

Det slår Stephen Alstrup, der er professor på Datalogisk Institut ved Københavns Universitet, fast.

- Der er ingen grund til at bekymre sig for, at den udvikler sin egen personlighed, siger professoren, der også er chef i virksomheden SupWiz, der leverer chatrobotter til blandt andet Sundhed.dk, SKAT og TV 2.

Hvor nem er den at deaktivere?

- Det er bare at trykke på en knap, siger Stephen Alstrup.

Han mener, at chatrobotternes virkelige problem ligger i, hvis folk begynder at stole blindt på den information, de videregiver.

- Det, der bekymrer mig, er, at den præsenterer nogle fakta på en meget troværdig måde, der dybest set kan være det rene nonsens.

Spejler de samtaler, den er blevet fodret med

Henrik Moltke afviser ligeledes, at chatbotten pludselig skulle udvikle sin egen bevidsthed og agere som et selvstændigt tænkende væsen.

- Nej, den har ikke nogen bevidsthed. Det er jo bare noget, den finder på i situationen. Den kan ikke have sin egen bevidsthed, siger han.

Men hvordan ender den med at kunne sige for eksempel "Du er ikke lykkeligt gift, du elsker mig"?

Henrik Moltke har selv prøvet Bings chatrobot. Her oplevede han, at robotten anbefalede Microsoft egne produkter. Da han spurgte ind til det faktum, lød svaret fra robotten "at den ikke gad diskutere bias eller Microsoft-produkter". (Foto: © © Bjarne Bergius Hermansen)

- Hvis du læser Kevins samtale med den, så er han jo også meget åben og følelsesladet selv. Han taler med den, som man ville tale med et rigtigt menneske. Måske endda i en romantisk sammenhæng.

- Og det gør, at den lige så stille og roligt prøver at komme ind i en special type af samtale, og så tror jeg, at den måske prøver at være sjov. Og så rammer den helt ved siden af, forklarer Henrik Moltke.

'Det er ting, vi aldrig havde opdaget i et laboratorium'

Chatbotten er nemlig blevet "fodret" med nærmest uendelige mængder data og samtaler fra nettet. Og det er blandt andet de samtaler, den bruger, når den svarer Kevin Roose.

- Det, den gør, er, at den går ind og udregner, hvad der er der mest almindelige at svare på baggrund af den samtale, chatbotten har haft med Kevin Roose, men også på baggrund af alle de samtaler, den tidligere er blevet fodret med.

Det er ikke helt klart, hvilken data chatrobotten bliver fodret med.

Microsofts teknologichef, Kevin Scott, udtaler, at han ikke har nogen idé om, hvorfor Bing-chatrobotten fortalte om sine mørke hemmeligheder eller erklærede sin kærlighed til Kevin Roose.

- Men det er lige præcis den slags samtaler her, vi bliver nødt til at have. Og det er ting, vi aldrig havde opdaget i et laboratorium.