Da ChatGPT ble lansert høsten 2022, utløste det en global revolusjon i bruken av kunstig intelligens (KI). Kritikere frykter at den populære språkmodellen også kan brukes til å oversvømme internett med desinformasjon som er ment å påvirke velgere.
ChatGPT-eier OpenAI kunngjorde i forrige uke at ChatGPT og bildegeneratoren DALL-E ikke skal kunne brukes for å villede velgere. Viktige land som USA, India og Storbritannia skal gjennomføre valg i løpet av året. I Norge er det stortingsvalg neste år.
– Vi vil sikre oss at vår teknologi ikke brukes til å undergrave de demokratiske prosessene, heter det i en uttalelse fra OpenAI.
OpenAI lar deg og meg stanse fordommer
KI – styrkemultiplikator for påvirkning
Spesialrådgiver Eskil Grendahl Sivertsen ved Forsvarets forskningsinstitutt (FFI) klarer ikke helt å se hvordan OpenAI skal klare å begrense spredning av valgpåvirkning.
– Jeg kan ikke se hvordan kunstig intelligens ikke skal utgjøre en stor risiko for økt manipulasjon på nett og sosiale medier. Det finnes i dag ikke gode nok måter å avgrense og kontrollere bruken, sier Sivertsen til NTB.
– Alt som gjøres i dag av valgmanipulasjon kan gjennomføres i mye større omfang og treffsikkerhet med kunstig intelligens. Det er hva vi i forsvarsterminologien kaller en styrkemultiplikator for desinformasjon og påvirkning, sier han.
EU gransker Microsofts OpenAI-investering
Tar ansvar for egen teknologi
Sjefforsker Asbjørn Følstad i Sintef Digital er i utgangspunktet positiv til at OpenAI forsøker å ta grep mot valgmanipulasjon.
– OpenAI har helt klart et ansvar for hva teknologien de har gjort tilgjengelig for verden kan brukes til. De går langt i å erkjenne at de bør ta dette ansvaret, sier Følstad.
– Jeg vil tro at muligheten for å håndheve et forbud mot valgmanipulasjon er til stede. Da vil i så fall bruken foregå på plattformer der OpenAI har tilgang og mulighet for å sette inn sanksjonerende tiltak, legger han til.
Derfor nekter ChatGPT å repetere ord
Vil bedre sporing
OpenAI sier de jobber kontinuerlig med å forstå hvor effektivt kunstig intelligens kan være for personifisert overtalelse, ifølge nyhetsbyrået AFP.
– Inntil vi vet mer, tillater vi ikke folk å bygge applikasjoner til bruk i valgkamp og lobbyvirksomhet, heter det fra selskapet.
De ønsker også gjøre det mulig å spore opphavet til bilder, og lede brukere som spør om prosedyrer i det amerikanske valget til autoritative sider.
Sivertsen ved FFI er skeptisk til om OpenAI klarer å gi brukerne opphavet til informasjon eller bilder. Da OpenAI ved nyttår i fjor innførte en muligheten for å spore tekst, ble løsningen trukket tilbake fordi resultatene ikke var gode nok.
– Det eksisterer ikke noen god metode for å avdekke KI-generert innhold. Det er flere ulike teknologier, mange plattformer og usikre svar, sier han.
Gir opp å avsløre AI-generert tekst
Russland og Kina mest aktuelle
FFI undersøkte i hvilken grad utenlandske aktører forsøkte å påvirke nordmenn under kommune- og fylkestingsvalget i fjor høst. De fant noen små eksempler, men konkluderte med at utenlandsk informasjonspåvirkning var av et så beskjedent omfang at det sannsynligvis hadde «liten til ingen effekt» på valget.
Til neste år er det stortingsvalg som har større betydning enn lokalvalg. Ifølge Sivertsen er det et åpent spørsmål om Norge er et interessant mål. Vurderingene til PST og etterretningstjenesten peker på Russland og Kina som de mest aktuelle statlige kandidatene til å drive valgpåvirkning i Norge.
– Det er ikke slik at Norge en enten er interessant eller ikke er det. Denne situasjonen er i endring. Norge har økt strategisk betydning som hovedleverandør av gass til Europa. Samtidig er vi et lite land med den beliggenheten vi har i en spent sikkerhetspolitisk situasjon. Aktørene har heller ikke ubegrenset med ressurser, sier Sivertsen.
På mange kanaler
Personlig overtalelse i stor skala er ikke noe nytt. Under det amerikanske valget i 2016 utarbeidet Cambridge Analytica 1,5 millioner personifiserte budskap for å overbevise velgere om å stemme på Donald Trump eller så mistillit til amerikanske institusjoner.
Personopplysningene ble hentet inn ved quiz-konkurranser der brukerne ufrivillig ga Cambridge Analytica lov til å hente personopplysninger om alle på vennelista. Dette ble gjennomført uten KI.
– Det var etter USA-valget 2016 vi fikk opp øynene for hvordan falske nyheter kan spre seg i sosiale medier. I kjølvannet har det vært diskusjon delvis rundt hvor effektivt dette egentlig var, sier Følstad i Sintef Digital.
– En av de store bekymringene rundt generativ KI og desinformasjon at man risikerer å få et maskineri som ikke nødvendigvis egner seg til å produsere en bestemt nyhetsartikkel som er gal, men som heller formidler historier eller rykter som blir vanskelige å imøtegå fordi de er på så mange ulike kanaler, sier Asbjørn Følstad i Sintef Digital.