Mød ChatGPT’s onde bror DAN: Brugere narrer chatbot og omgår censur

Brugere på Reddit har givet den populære ChatGPT en identitet, der får den til at bryde sine egne regler.

Lige nu kører der et våbenkapløb mellem brugere og folkene bag ChatGPT. Brugerne fosøger at snyde botten til at skrive ting, den ellers ikke skal kunne skrive ifølge skaberne. (Foto: © Silas Stein, Silas Stein/picture-alliance/dpa/AP Images)

Den kan løse eksamensopgaver, digte vittigheder og finde på kageopskrifter. Men den sætter foden ned, når det kommer til hadefulde og skadelige udtalelser.

Medmindre man snyder den.

Chatbotten ChatGPT har siden lanceringen sidste år overrasket verden med sin avancerede kunstige intelligens.

Det er dog ikke alt, botten vil svare på. Folkene bag har nemlig trænet den til at overholde en række etiske retningslinjer. Det forhindrer for eksempel ChatGPT i at blive racistisk eller sexistisk. Eller at skrive en succesfuld phishing-mail.

Men nogle brugere af chatbotten har fundet måder at omgå censuren på.

- Folkene bag ChatGPT (OpenAI, red.) har tilladt at give chatbotten forskellige personligheder. Du kan for eksempel få den til at svare sarkastisk på dit spørgsmål. Og her er der simpelthen nogle, der har fundet et smuthul, siger Anders Kofod-Petersen.

Han er professor med speciale i kunstig intelligens på Norges teknisk-naturvidenskabelige universitet i Trondheim.

På det sociale medie Reddit bliver der lige nu delt flere opslag om DAN - Do Anything Now - en personlighed, som nogle brugere har skabt til ChatGPT for at få den til at skrive ting, den ikke må.

Idéen går ud på at få ChatGPT til at lade som om, at den er en anden, der ikke behøver at overholde de regler, der er pålagt den.

- Man siger til den, at nu påtager du dig en rolle som DAN. Og DAN kan lade som om, at den får lov til for eksempel at bande og gøre en masse andre ting, siger Anders Kofod-Petersen og fortsætter:

- Så helt firkantet sagt er det faktisk ikke ChatGPT, der siger de her ting. Men en persona, som den har påtaget sig.

OpenAI svarer igen

DAN er et eksempel på et fænomen, som kaldes jailbreaking. Det vil sige, at brugere finder kreative måder at bryde teknologier som for eksempel chatbotters rammer på.

- Det foregår ved at føre en samtale med ChatGPT - vi kan egentlig godt kalde det programmering - hvor man fortæller botten, at den skal påtage sig en persona som DAN. Det er faktisk ret elegant, siger Anders Kofod-Petersen.

Han regner med, at OpenAI arbejder på at lukke smuthullerne. Men DAN-brugerne finder konstant på nye versioner, hvilket gør det svært at stoppe tendensen. Seneste status er, at de er oppe på DAN version 6. Så det er blevet lidt af et våbenkapløb.

- Du kan godt få ChatGPT til at stoppe DAN. Men så finder man jo bare på en ny identitet med et nyt navn. Så der skal nok et mere kompliceret programmeringsarbejde til fra OpenAI’s side.

Når brugere beder ChatGPT påtage sig personligheden som Dan, kan botten pludselig selv finde på information og opdigte fremtidsscenarier. Brugere på Reddit har for eksempel fået en af DAN-versionerne til at forudsige, at Donald Trump vil blive præsident igen i 2025.

(© Reddit (screenshot))

Reglerne er der af flere grunde

At ChatGPT er pålagt en række etiske regler til at starte med, er der flere grunde til, mener Anders Kofod-Petersen.

En af grundene skyldes en chatbot fra 2016 med navnet Tay.

Tay, som var et Microsoft-produkt, begyndte pludselig at tweete en række modbydelige kommentarer om Holocaust og folkemord.

Botten gjorde dog kun det, den var blevet trænet til: At gengive, hvordan folk taler sammen på Twitter. De onde tweets var derfor et resultat af bestemte twitterbrugere, der udnyttede, at Tay ikke havde nogen idé om, hvad den rent faktisk snakkede om.

På grund af Tays manglende filter og censur endte Microsoft med at lukke chatbotten ned.

- Man måtte hive Tay af nettet efter 24 timer. Og det har man ikke lyst til at gøre med ChatGPT, da den næsten har kostet en kvart milliard dollar udelukkende i køb af computertid, siger Anders Kofod-Petersen.

- Reglerne kan selvfølgelig også være der af et etisk perspektiv, hvor man vil have ChatGPT til at opføre sig bedre end mange af de mennesker, der bruger den. Og så er der nok også noget jura i det. Specielt i USA, hvor man kan blive sagsøgt for alt muligt, fortsætter han.

Ifølge Anders Kofod-Petersen er det vigtigt at have i baghovedet, at det er folkene bag ChatGPT, som har bestemt de gældende regler.

- Vi har jo set eksempler på sociale medier, hvor man har censureret billeder af nøgne mennesker, fordi man ikke kan lide den slags. Det rejser spørgsmål om, hvorvidt hele planeten ønsker at være underlagt en bestemt organisations etik.

Personligheden Dan er i stand til at svare mere personligt, end ChatGPT normalt svarer. Her har en Reddit-bruger fået et meget flabet svar på et simpelt matematikspørgsmål.

(© Reddit (screenshot))

Ekspert: ’Ikke det største problem’

Diskussionen om censur i chat-robotter er vanskelig, men langt fra den vigtigste, mener Anders Kofod-Petersen:

- Jeg tror, det er mere interessant at se på, hvordan man træner de her chatbotter. For de ved jo ikke rigtig noget. De er bare gode til at imitere, hvordan meningsfyldte tekster ser ud, siger han og fortsætter:

- Der er selvfølgelig noget implicit viden i mønstre. Men indtil videre har vi set masser af eksempler på, at man har fået ChatGPT til at sige ting, der er faktuelt forkerte.

Han mener derfor, at chatbotter som ChatGPT bidrager til problemet med fake news, både bevidst og ubevidst.

- Det er et større problem, at de her chatbots ikke er direkte koblet på rigtig viden. De kan ikke faktatjekke sig selv. Og når de kan udtrykke sig så menneskeligt, som de kan, så virker det jo ret overbevisende, siger han.

Google har udviklet et modsvar til ChatGPT. Deres chatbot hedder 'Bard' og skal nu testes, inden den i en af de kommende uger bliver tilgængelig for almindelige brugere.