Instagram skrev ved en fejl 'terrorist' på palæstinensiske profiler

Vi kan ikke altid stole på automatiske oversættelser af sprog på sociale medier. Og det er der flere grunde til, siger eksperter. 

En bruger opdagede, at Instagrams automatiske oversættelse fejlagtigt skrev "terrorist" på flere brugeres konti. Nu har Meta, selskabet bag Instagram, rettet fejlen og givet en undskyldning. (Foto: © DADO RUVIC, Ritzau Scanpix)

Meta, selskabet bag Instagram, har måttet lægge sig fladt ned, efter de ved en fejl skrev ordet "terrorist" på flere palæstinensiske brugerprofiler.

Ligesom på mange andre sociale medier kan du med få klik få oversat sproget på udenlandske Instagram-profiler takket være en inkorporeret kunstig intelligens.

I det her tilfælde havde Instagrams kunstige intelligens oversat bruger-biografier, der indeholdt ordet "palæstinensisk" på engelsk, en emoji med det palæstinensiske flag samt det arabiske ord "alhamdulillah" (lovet være gud).

Det blev oversat til "praise be to God, Palestinian terrorists are fighting for their freedom". På dansk: "lovet være Gud, palæstinensiske terrorister kæmper for deres frihed".

Den automatiske oversættelse tilføjede altså ordet "terrorist", selvom det ikke fremgik af teksterne. Og det opdagede en bruger.

- Det er en meget alvorlig svipser. Det er der ingen tvivl om, siger Thomas Ploug, der er professor i dataetik ved Institut for Kommunikation på Aalborg Universitet.

- Lige nu er sociale medier fyldt med mennesker, der ytrer sig for og imod Israel og Hamas. Det er en krudttønde. Og i det lys er sådan noget her en gnist, der kan antænde endnu stærkere reaktioner om vestlig undertrykkelse af palæstinensere, fortsætter han.

Derfor skriver den forkert

Instagram har nu rettet fejlen. Men det er langt fra et enestående tilfælde, når vi taler om automatiske oversættelser på nettet.

- Når vi tænker på oversættelser, så tænker vi på Gyldendals Røde Ordbøger, og vi tænker på en objektiv procedure, siger Thomas Ploug og fortsætter:

- Men når man har nogle AI-drevet auto-oversættelser, så er der risiko for, at der kommer ideologiske lag ind i oversættelserne. Og de kan komme af mange forskellige grunde.

For eksempel har det en betydning, hvilke data, den kunstige intelligens er blevet trænet på. Den kunstige intelligens lærer nemlig at genkende mønstre i sproget ud fra træningsdataene.

Er den for eksempel blevet fodret med mange vestlige mediers nyhedsartikler om Israel-Hamaskrigen, så vil ordene "palæstinenser" og "terrorist" ofte indgå i samme kontekst.

- Når den så skal oversætte en tekst med ordet "palæstinenser", så mener den måske, at det er meget sandsynligt, at det næste ord er terrorist, siger Thomas Ploug.

Han understreger, at man kan gøre meget for at undgå problemet ved at sørge for at træne den kunstige intelligens på de rigtige data.

- Men det kan også skyldes en række forskellige menneskelige faktorer. Det er for eksempel vigtigt, at man tester systemerne for den type af ideologisk ladet oversættelser, siger Thomas Ploug.

Hvad, der helt præcis er sket i tilfældet på Instagram, er svært at svare på, forklarer tech-korrespondent Henrik Moltke i DR’s techpodcast Prompt.

- Det er ærgerligt, at Meta ikke har sagt præcist, hvad der er sket. Jeg er ikke sikker på, at de har kunnet gå tilbage for at se, hvorfor den egentlig gjorde, som den gjorde. Men de har kunnet lægge en regel ind efterfølgende, der har rettet op på fejlen, siger han.

Henrik Moltke forklarer, at det ikke kun er Meta, der er løbet ind i problemer i forbindelse med Israel-Hamaskrigen.

- Der har været utrolig mange, der har prøvet at styre den enorme energi, som er blevet frigivet efter angrebet - på begge sider af konflikten. Og det er tæt på umuligt at styre et socialt medie igennem, uden at der vil være sådan nogle eksempler her.

Lovgivning kan hjælpe på problemet

Ifølge Thomas Ploug kan lovgivning på området være med til at rette op på nogle af den her type fejloversættelser.

- Det handler om, at man ikke bruger teknologierne, før man ved, at de er fuldt ud modne. Og det kræver en lovgivning, der stiller krav til bias-testning, sikkerhed, og hvornår, man må bruge teknologien, siger han.

I USA har præsident Joe Biden i denne uge udstedt et dekret, hvor han beder føderale myndigheder om at indføre nye sikkerhedsstander for systemer med kunstig intelligens.

Og lige nu arbejder man i EU på en såkaldt Artificial Intelligence Act, der skal regulere brugen af kunstig intelligens.

Ekspert: 'Vi skal være mere kritiske'

Udover at myndighederne skal holde tech-giganterne i ørerne, så skal vi som brugere også lære at være kritiske overfor det indhold, der bliver skabt af kunstig intelligens, mener Thomas Ploug. Det gælder både indhold fra chatbotter såvel som fra auto-oversættelser på sociale medier.

Artiklen fortsætter under storien her.

Vi skal være kritiske, ligesom vi er, når vi læser nyheder i dagbladene, lyder det fra professoren:

- Vi har lært, at der er et ideologisk lag på dagbladene. Når vi går ind på deres hjemmesider, så er der en masse markører på, at nu bevæger vi os ind i et bestemt informationsunivers, hvor der gælder nogle særlige regler, siger han.

- Og det skal vi også vænne os til, at der er på sociale medier og på de her AI-teknologier. Det handler om uddannelse, oplysning og almindelig kritisk bevidsthed. Og det tager noget tid.

Hør mere om problemmet i DR’s podcast Prompt.