Store språkmodeller som ChatGPT fra OpenAI har gjort det mulig å bruke kunstig intelligens (AI) til å skrive overbevisende tekster, og det er vanskelig å avgjøre om de er skrevet av en maskin eller et menneske.
Enkelte forskere mener at det faktisk er umulig å vite med sikkerhet om en tekst er skrevet av en AI eller et menneske.
Umulig å avsløre AI-generert tekst, mener forskere
Nå ser det ut til at OpenAI, som står bak ChatGPT, har kommet til samme konklusjon:
OpenAI legger ned verktøyet de lagde for å analysere tekster for å avsløre om teksten er skrevet av en AI eller ikke, skriver The Register.
Har ikke gitt opp
I en oppdatering skriver selskapet:
– Fra 20. juli 2023 er "AI classifier" ikke lenger tilgjengelig på grunn av den lave nøyaktigheten.
OpenAI skriver at de nå går gjennom tilbakemeldinger og for øyeblikket prøver å finne mer effektive teknikker for å analysere tekst.
I tillegg skriver selskapet at de vil utvikle og rulle ut mekanismer som gjør brukere i stand til å forstå om lyd eller visuelt innhold er AI-skapt.
NTNU mistenker fem elever for ChatGPT-juks
Økende problem
Selv om ChatGPT og lignende løsninger har mange positive sider, har mange utdanningsinstitusjoner advart om at de i økende grad blir brukt til blant annet å jukse på eksamensbesvarelser.
I fjor ble for eksempel 11 studenter ved NTNU mistenkt for å jukse, hvorav fem av dem for bruk av kunstig intelligens.
Det er også langt fra sikkert at alle tilfeller blir avslørt: Forskere ved Universitetet i Agder har undersøkt hvor godt ChatGPT kan svare på eksamensspørsmål, og kun 60 prosent av tekstene ble avslørt som robottekster.