De fleste vet at AI-chatboter av og til hallusinerer og finner på informasjon. Grunnen er at disse løsningene i hovedsak bare prøver å finne ut hva som er det neste mest sannsynlige ordet, når den skal svare på en prompt.
Som oftest er hallusinasjonene ganske harmløse, men for norske Arve Hjalmar Holmen var det langt fra harmløst:
Da Holmen prøvde å finne ut om ChatGPT hadde noe informasjon om han, ble han presentert med en oppdiktet historie om at han var dømt for drap på sine to sønner, i tillegg til å ha prøvd å drepe den tredje sønnen:

Holmen får nå hjelp av Max Schrems personvernorganisasjon Noyb, som har sendt inn en klage til Datatilsynet der de ber dem om å beordre OpenAI til å sørge for at ChatGPT ikke kommer med tilsvarende påstander.
Noyb ber også om at OpenAI må finjustere modellene sine for å eliminere unøyaktige resultater, og foreslår også bøter for å forhindre at lignende skjer igjen.
Saken blir i dag omtalt i en rekke internasjonale medier, som Ars Technica og Techcrunch.
💡 OPPDATERING: kode24 har nå snakket med Holmen:

– Først ble jeg sjokka. Så bekymra, sier ChatGPT-offeret
«Dette er uten tvil et brudd på GDPR.»
Blander fakta og fiksjon
I et LinkedIn-innlegg og en artikkel skriver Noyb at det tidligere har vært mange rapporter om at OpenAIs tjenester har diktet opp falske påstander om seksuell trakassering, utpressing og barnemishandling. Flere rettssaker skal være på gang.
Likevel mener Noyb den oppdiktede historien om Holmens påståtte barnedrap er ekstra alvorlig, siden ChatGPT blander fakta og fiksjon. Blant annet stemte antall barn og navnet på Holmens hjemby.
– Gitt blandingen av klart identifiserbare personopplysninger og falsk informasjon, er dette uten tvil et brudd på GDPR. I henhold til artikkel 5(1)(d) må selskaper sørge for at personopplysningene de behandler om enkeltpersoner, er korrekte, skriver Noyb på LinkedIn.
Persondata må være korrekt
Joachim Söderberg er personvernadvokat i Noyb og sier at det ikke er noen tvil om at personopplysninger som leveres av store språkmodeller må være korrekte.
– GDPR er tydelig. Personopplysninger må være korrekte. Og hvis de ikke er det, har brukerne rett til å få dem endret slik at de gjenspeiler sannheten.
– Å vise ChatGPT-brukere en liten ansvarsfraskrivelse om at chatboten kan gjøre feil, er åpenbart ikke nok. Man kan ikke bare spre falsk informasjon og til slutt legge til en liten ansvarsfraskrivelse som sier at alt man har sagt kanskje ikke er sant, sier Söderberg.
«Det faktum at noen kan lese dette og tro det er sant, er det som skremmer meg mest.»
– Skremmer meg
Arve Hjalmar Holmen selv uttaler i Noybs bloggpost at han er skremt.
– Noen tror at "det ikke er røyk uten ild". Det faktum at noen kan lese dette og tro det er sant, er det som skremmer meg mest, sier Holmen.
Noyb sier at det dessverre ikke ser ut som at OpenAI verken er interessert eller i stand til å fikse falsk informasjon i ChatGPT. Noyb sendte sin første klage om falsk informasjon i april 2024. Den gangen handlet det om å rette eller slette en feil fødselsdato på en offentlig person.
– OpenAI hevdet enkelt og greit at det ikke kunne korrigere data. I stedet kan det bare “blokkere” data for visse forespørsler, men den falske informasjonen forblir likevel i systemet, skriver Noyb.

OpenAI, beskyldt for tyveri, mener DeepSeek gjør tyveri
Bedre med ny ChatGPT
Noyb skriver at OpenAI har oppdatert modellen sin etter at Holmen opplevde å bli kalt barnemorder. Nå søker også ChatGPT på internett etter oppdatert informasjon når man ber om informasjon om personer.
– For Arve Hjalmar Holmen betyr det heldigvis at ChatGPT har sluttet å fortelle løgner om at han er en morder. De ukorrekte dataene kan imidlertid fortsatt være en del av LLM-ens datasett.
På grunn av hvordan ChatGPT fungerer vil det ifølge Noyb ikke være mulig for en person å være helt sikker på at feil informasjon er helt slettet – med mindre man trener opp hele AI-modellen på nytt.
– Beleilig nok overholder ikke OpenAI retten til innsyn i henhold til artikkel 15 i GDPR heller, noe som gjør det umulig for brukere å vite hva som behandles i deres interne systemer. Dette skaper naturlig nok fortsatt uro og frykt hos klageren.
