– Med tilgang til kunstig intelligens øker risikoen for at elever blir fristet til å levere AI-generert tekst som sin egen, sa kunnskapsminister Kari Nessa Nordtun i juni.
Da endret regjeringen reglene for eksamener som følge av AI. Tidligere i år sa også 58 prosent av lærere at de hadde avdekket AI-juks på videregående skoler, meldte Utdanningsnytt.
Men hva om det fantes en løsning som avslørte bruk av AI som chatGPT i skoleoppgaver?
Den skal angivelig ha vært klar i ett år, uten at OpenAI har lansert den, melder The Wall Street Journal.
OpenAI skal ha holdt datainnbrudd hemmelig
Bekrefter at løsningen finnes
Løsningen skal være todelt: På den ene siden var tiltaket å vannmerke tekster, og på den andre var et verktøy for å lete etter disse vannmerkene.
OpenAI har selv oppdatert et tidligere blogginnlegg om temaet, etter at Wall Street Journal omtalte saken.
Der bekrefter de at løsningen er laget, men at de vil fortsette å vurdere andre alternativer.
En talsperson sier til Techcrunch at dette er en tilsiktet tilnærming, som følge av at det er komplekse forhold, og at disse trolig vil påvirke også andre aktører enn OpenAI.
– Metoden vi utvikler for vannmerking av tekst er lovende, men det er flere viktige risikofaktorer vi må vurdere når vi ser på alternativene. Det gjelder blant annet muligheten for at ondsinnede aktører kan omgå løsningene, men også hvor uforholdsmessig kraftig påvirkning dette vil ha på brukere med andre morsmål enn engelsk, sier talspersonen.
Nordmenn stoler ikke på AI-lagde nyheter
— Vil gi mange falske positive
Ifølge The Verge skal løsningen basere seg på en modell for hvilke ord og fraser som følger hverandre. Med små justeringer fra dagens praksis, vil det på den måten oppstå det et mønster, som er mulig å forutsi og lete opp med verktøy.
I tillegg til problemstillingene som ble trukket fram av talspersonen til OpenAI, beskriver de også et annet viktig poeng i bloggposten:
– Selv om det er en lav andel falske positive utslag med tekstbasert vannmerking, så skal dette brukes på svært mye tekst. Det vil gi mange falske positive utslag, skriver de.
Flere medier peker også på et «mindre nobelt» motiv for hvorfor løsningen ikke er rullet ut: Det vil kunne skade inntjeningen til OpenAI.
Ifølge en undersøkelse skal nemlig en betydelig andel brukere ha sagt at de vil bruke chatGPT mindre, dersom det er sannsynlig at det kan avsløres, skriver The Verge.
Gigantene leverer milliarder, men hvor blir det av AI-penga?
— Nesten helt umulig å bevise
Antall studenter tatt for fusk med kunstig intelligens har skutt i været, melder nettavisen Khrono.
Khronos tall viser at minst 66 studenter ble felt for AI-fusk fra 1. august 2023 til 29. juli i år. Dette er tall fra 17 statlige universiteter og høgskoler.
— I praksis er det nesten helt umulig å bevise. Vi sitter i saksa. For å få noen felt, krever en dokumentasjon som vi strever fryktelig med å skaffe, sier Professor Peter Fjågesund.