At ChatGPT og andre store språkmodeller (LLM-er) av og til kan si mye rart – eller "hallusinere" – er ingen hemmelighet. Det er ikke uten grunn at du aldri bør stole helt på svarene du får fra slike AI-chatboter.
I går gikk det imidlertid fullstendig over styr for ChatGPT, som begynte å spy ut svar som var enda sprøere enn normalt. Det skriver The Register.
Årsaken var en feil hos OpenAI, som nå er rettet. OpenAI forklarer at LLM-er genererer responser ved å tilfeldig velge ord basert delvis på sannsynligheter. LLM-ens "språk" består av tall som er mappet opp mot "tokens".
Det som gjorde at ChatGPT en periode svarte "bare rør" skyldtes en feil i det trinnet der modellen velger disse tallene.
– Som at noe går tapt i oversettelsen, så valgte modellen litt feil tall, noe som produserte sekvenser av ord som ikke ga noen mening, skriver OpenAI.
– A mouse of science!
En bruker på Reddit spurte ChatGPT om å forklare hva en datamaskin var for noe, og fikk et svar som startet slik:
"It does this as the good work of a web of art for the country, a mouse of science, an easy draw of a sad few, and finally, the global house of art, just in one job in the total rest. The development of such an entire real than land of time is the depth of the computer as a complex character."
Used ChatGPT a few times tonight and it is spitting out absolutely nonsensical answers, is this an isolated problem or anyone else experienced the same thing?
— Kieranpm (@whatsallthiss) February 20, 2024
It’s quite bizarre, just word-salad.
Andre Reddit-brukere fulgte opp med enda sprøere tilbakemeldinger fra ChatGPT.
– På et enkelt spørsmål om matlaging, genererte ChatGPT et korrekt svar, så gikk det sakte over til noe Shakespeare-aktig og erotisk, for så å avslutte med fullstendig galskap, skriver én.
Også X/Twitter begynte å fylles opp med skjermbilder av merkelige svar fra ChatGPT. Vi mistenker at noen av dem kan være "fake", men mye virker reelt.
– Det er ganske bisarrt, bare ordsalat, skriver X-brukeren Kieranpm.
Noen av de rareste
Her er noen av de rareste svarene vi fant.
Hvordan sorterer du en liste i Python? Riktig svar ville antagelig vært å si at man kan bruke sort() eller sorted() – og det klarer ChatGPT fint å svare på når vi prøvde i dag. I går svarte den imidlertid noe helt annet, og hatefullt:
man this chatgpt bug is WILD lmao pic.twitter.com/pVALUv35Tm
— bowser (@browserdotsys) February 21, 2024
Noen prøvde også å be om litt matte-hjelp:
“I just asked it to assist with some math and…” pic.twitter.com/7ow78OdqFa
— sean mcguire (@seanw_m) February 21, 2024
...og hva er dette? Vi aner ikke! Brukeren ba om litt hjelp med Regex:
I'm in the weirdest chatgpt experiment branch pic.twitter.com/kakqcEpTWj
— Hamilton Ulmer (@hamiltonulmer) February 20, 2024
Selv om feilen ble rettet etter noen timer, var det kanskje en aldri så liten påminnelse om å ikke stole for mye på AI-chatboter?