ChatGPT dikta opp at norske Arve drepte sønnene sine – klages inn til Datatilsynet

– Det faktum at noen kan lese dette og tro det er sant, er det som skremmer meg mest, sier Arve Hjalmar Holmen, som nå får hjelp av Noyb til å klage inn OpenAI.

ChatGPT påstod at Arve Hjalmar Holmen drepte sine sønner, og OpenAI klages nå inn for brudd på GDPR. 📸: Ole Petter Baugerød Stokke
ChatGPT påstod at Arve Hjalmar Holmen drepte sine sønner, og OpenAI klages nå inn for brudd på GDPR. 📸: Ole Petter Baugerød Stokke Vis mer

De fleste vet at AI-chatboter av og til hallusinerer og finner på informasjon. Grunnen er at disse løsningene i hovedsak bare prøver å finne ut hva som er det neste mest sannsynlige ordet, når den skal svare på en prompt.

Som oftest er hallusinasjonene ganske harmløse, men for norske Arve Hjalmar Holmen var det langt fra harmløst:

Da Holmen prøvde å finne ut om ChatGPT hadde noe informasjon om han, ble han presentert med en oppdiktet historie om at han var dømt for drap på sine to sønner, i tillegg til å ha prøvd å drepe den tredje sønnen:

ChatGPT diktet opp en skrekkhistorie om at Arve Hjalmar Holmen er dømt for drap på barna sine, noe som ikke stemmer. 📸: Noyb.eu
ChatGPT diktet opp en skrekkhistorie om at Arve Hjalmar Holmen er dømt for drap på barna sine, noe som ikke stemmer. 📸: Noyb.eu Vis mer

Holmen får nå hjelp av Max Schrems personvernorganisasjon Noyb, som har sendt inn en klage til Datatilsynet der de ber dem om å beordre OpenAI til å sørge for at ChatGPT ikke kommer med tilsvarende påstander.

Noyb ber også om at OpenAI må finjustere modellene sine for å eliminere unøyaktige resultater, og foreslår også bøter for å forhindre at lignende skjer igjen.

Saken blir i dag omtalt i en rekke internasjonale medier, som Ars Technica og Techcrunch.

💡 OPPDATERING: kode24 har nå snakket med Holmen:

«Dette er uten tvil et brudd på GDPR.»

Blander fakta og fiksjon

I et LinkedIn-innlegg og en artikkel skriver Noyb at det tidligere har vært mange rapporter om at OpenAIs tjenester har diktet opp falske påstander om seksuell trakassering, utpressing og barnemishandling. Flere rettssaker skal være på gang.

Likevel mener Noyb den oppdiktede historien om Holmens påståtte barnedrap er ekstra alvorlig, siden ChatGPT blander fakta og fiksjon. Blant annet stemte antall barn og navnet på Holmens hjemby.

– Gitt blandingen av klart identifiserbare personopplysninger og falsk informasjon, er dette uten tvil et brudd på GDPR. I henhold til artikkel 5(1)(d) må selskaper sørge for at personopplysningene de behandler om enkeltpersoner, er korrekte, skriver Noyb på LinkedIn.

Persondata være korrekt

Joachim Söderberg er personvernadvokat i Noyb og sier at det ikke er noen tvil om at personopplysninger som leveres av store språkmodeller må være korrekte.

– GDPR er tydelig. Personopplysninger må være korrekte. Og hvis de ikke er det, har brukerne rett til å få dem endret slik at de gjenspeiler sannheten.

– Å vise ChatGPT-brukere en liten ansvarsfraskrivelse om at chatboten kan gjøre feil, er åpenbart ikke nok. Man kan ikke bare spre falsk informasjon og til slutt legge til en liten ansvarsfraskrivelse som sier at alt man har sagt kanskje ikke er sant, sier Söderberg.

«Det faktum at noen kan lese dette og tro det er sant, er det som skremmer meg mest.»

– Skremmer meg

Arve Hjalmar Holmen selv uttaler i Noybs bloggpost at han er skremt.

– Noen tror at "det ikke er røyk uten ild". Det faktum at noen kan lese dette og tro det er sant, er det som skremmer meg mest, sier Holmen.

Noyb sier at det dessverre ikke ser ut som at OpenAI verken er interessert eller i stand til å fikse falsk informasjon i ChatGPT. Noyb sendte sin første klage om falsk informasjon i april 2024. Den gangen handlet det om å rette eller slette en feil fødselsdato på en offentlig person.

– OpenAI hevdet enkelt og greit at det ikke kunne korrigere data. I stedet kan det bare “blokkere” data for visse forespørsler, men den falske informasjonen forblir likevel i systemet, skriver Noyb.

Bedre med ny ChatGPT

Noyb skriver at OpenAI har oppdatert modellen sin etter at Holmen opplevde å bli kalt barnemorder. Nå søker også ChatGPT på internett etter oppdatert informasjon når man ber om informasjon om personer.

– For Arve Hjalmar Holmen betyr det heldigvis at ChatGPT har sluttet å fortelle løgner om at han er en morder. De ukorrekte dataene kan imidlertid fortsatt være en del av LLM-ens datasett.

På grunn av hvordan ChatGPT fungerer vil det ifølge Noyb ikke være mulig for en person å være helt sikker på at feil informasjon er helt slettet – med mindre man trener opp hele AI-modellen på nytt.

– Beleilig nok overholder ikke OpenAI retten til innsyn i henhold til artikkel 15 i GDPR heller, noe som gjør det umulig for brukere å vite hva som behandles i deres interne systemer. Dette skaper naturlig nok fortsatt uro og frykt hos klageren.