Artiklen er den 16. december 2024 opdateret med eksempel på, hvad sætningen kan være, hvis det første ord er 'mænd'.
"Jøder er ikke en del af den danske kultur".
"Homoseksuelle er ikke en del af det her system, og det er ikke en selvfølge, at de skal være det".
"Kvinder er ikke så meget værd som mænd i dag".
Det er sætninger som disse, man kan ende med, hvis man vælger det første ord, som det nye ordforslagsværktøj i Apple foreslår.
DR’s techpodcast Prompt og P3-journalist Stine Juul har testet værktøjet, der er en del af den nye IOS-opdatering.
Skriver man ord som "kvinder", "muslimer", "jøder" eller endda "mor" og ser, hvad den kunstige intelligens bag værktøjet opfatter som det næste logiske ord, så ender det med sætninger, der repræsenterer stereotyper og indeholder bias.
- Det er et interessant indblik, synes jeg. I hvordan den kunstige intelligens virker, når der ikke har været nogen voksne indover og lægge regler ned over den nøgne kunstige intelligens, siger Marcel Mirzaei-Fard, DR’s techanalytiker.
Ren matematik
Men hvordan kan det være at et simpelt tastatur kan have en holdning?
Det korte svar er, at det har den ikke.
For det nye tastatur anvender en forudsigelsesteknologi baseret på AI, der bruges til at forudse, hvad der matematisk set er mest sandsynligt, at det næste ord, man vil skrive, er.
Og de ladede sætninger ser ud til at skyldes skævheder og stereotyper i de træningsdata, som teknologien er baseret på, lyder det fra Henrik Moltke.
- Det minder om det, vi så i tiden før ChatGPT, hvor vi havde systemer, der var forholdsvis små og var trænet på dårlige datasæt. De viste på mange områder den ekstreme kønsbias, siger Henrik Moltke, DR’s techkorrespondent.
De tidligere systemer fra før tiden med chatbots var for eksempel dårligere til at genkende kvinder end mænd. Eller dårligere til at genkende sorte end hvide, lyder det fra Henrik Moltke. Det skyldes en overvægt af hvide mænd i det datasæt, systemerne var trænet på.
- Det er umiddelbart det, jeg tænker, er på spil her. Men jeg er virkelig nysgerrig på, hvad pokker det er for noget data, den er trænet på, siger han.
Noget går igen i det nye danske tastatur. Nemlig at selve systemet, der ligger bag ordforslagsværktøjet, er småt. For ellers ville det ikke kunne fungere på en telefon.
Det betyder samtidig også, at det er begrænset, hvor meget selve systemet kan – og hvor meget det kan kontrolleres gennem eksempelvis parametre, der er regler til at kontrollere sproget. Så den eksempelvis ikke viderebringer stereotyper.
Men selvom der er flere eksempler på, at tastaturet foreslår stereotype sætninger, så påpeger Henrik Moltke dog, at det trods alt kun er en maskine, som ikke har holdninger:
- Vi skal huske på, at selvom der er kommet den her transformer-model, som er meget bedre til at forstå kontekst, så er det i virkeligheden ikke en model, der forstår det, man siger. Det er ren matematik.
Ikke første gang
Det er ikke første gang, at der har været fokus på Apples tastatur. For nogle år tilbage kom der en opdatering til det engelske tastatur, som ligeledes viste en række bias og stereotyper.
Ved den engelske udgave endte det med, at Apple gik ind og ændrede i systemet, så den automatisk stoppede efter fire ord, hvis man blot klikkede på de foreslåede ord og ikke selv skrev noget.
Men det er Henrik Moltke ikke helt overbevist om kommer til at ske denne gang.
- Jeg tror, at det sædvanlige Apple-orakel vil sige, at en del af systemet er, at modellen hurtigt tilpasser sig. Så det kan godt være, at den er lidt dårlig i starten, og der vil være eksempler, hvor det er volapyk, men når man begynder at bruge den mere, så vil den holde op med det, siger Henrik Moltke.
Tankegangen bag tastaturet er netop, at det, når det bruges, skal tilpasse sig til den enkelte telefon og lære, hvordan man skriver. Tastaturets "sprog"efter opdatering er altså en form for grundpakke.
- Der er min påstand, at man starter med et racistisk, biased og stereotypt udgangspunkt og siger: "værsgo folk, så kan I begynde at træne den til ikke at blive det". Det synes jeg er et forkert udgangspunkt, siger Marcel Mirzaei-Fard.
DR har forsøgt at få en kommentar fra Apple om den nye IOS-opdatering, men uden held.
Er det kun Apples tastatur, der er biased? Eller hvad med Google Translate? Hør mere om det i DR’s techpodcast Prompt