Denne uka publiserte Teknologirådet, som er et uavhengig offentlig organ, rapporten "Generativ kunstig intelligens og ytringsfrihet".
Her har Teknologirådet slått seg sammen med Norges institusjon for menneskerettigheter for å "forutse noen av effektene kunstig intelligens vil føre med seg for vår digitale offentlighet, og vurdere hvordan utviklingen vil kunne påvirke menings-, informasjons- og ytringsfriheten."
Hanne Sofie Lindahl, prosjektleder i Teknologirådet, viser til at det siste året har vært ett sammenhengende gjennombrudd for generativ kunstig intelligens.
- Og vi begynner å se konsekvensene av det, sier Lindahl til kode24.
Alle vil regulere AI: «Men ingen enkel oppgave»
Kan misbrukes
Ett av de viktigste punktene i rapporten at maskiner har knekt språkkoden og blitt "skaperkraftige".
- Maskiner blir nå trent på store mengder data og har blitt kraftigere - de kan generere bilder, videoer og lydklipp ved hjelp av enkle instrukser, som er både realistiske og unike, sier Lindahl.
Hun legger til at alle nå får tilgang på en kraftig teknologi gjennom apper og nettlesere som både gir mennesker nye måter å uttrykke seg på.
- Men som også kan misbrukes, i form av å skape falskt AI-generert innhold som deepfakes, falske nyheter og desinformasjon, sier Lindahl.
«Mennesker synes til og med at kunstig genererte ansikter virker mer troverdige enn ekte ansikter.»
Vanskeligere å skille
Lindahl forteller at AI får flere negative effekter på ytringsrommet og den digitale offentligheten.
- Falskt innhold på nett kan og vil trolig øke – det blir enklere og billigere å produsere falskt innhold, i et større volum og tempo enn før. Bildegenereringsverktøyet DALL-E-2 alene genererer 34 millioner bilder daglig. Og det er bare ett av flere verktøy, sier hun.
Lindahl mener også at det blir vanskelig for mennesker å skille maskinskapt fra menneskeskapt.
- Forskere mener vi forbi det punktet der mennesker kan skille maskinskapt fra menneskeskapt, og mennesker synes til og med at kunstig genererte ansikter virker mer troverdige enn ekte ansikter.
«Kinesisk ChatGPT» nekter å snakke politikk
Konsekvenser for ytringsfrihet
Lindahl viser også til at innhold kan generes automatisk, spres målrettet og persontilpasses i dagens informasjonsdomene på nett.
Dette kan påvirke og forvirre offentligheten og svekke tillit til informasjon.
- Rapporten viser at utviklingen vi står midt oppi kan få store konsekvenser for ytringsfrihet og utfordrer hele grunnfundamentet som rettigheter er bygd opp på, sier hun.
«Mennesker vil trenge hjelp til å se forskjell på hva som er ekte og sant.»
Maskiner er ikke nøytrale
Andre problemer vi står overfor er at maskinene ikke bryr seg om sannhet, og kan hallusinere.
Utstrakt bruk av maskiner kan svekkes menneskers tillit til informasjon, demokratiske institusjoner og demokratiske prosesser som valg
- Maskinene er ikke nøytrale – de har innebygde meninger og holdninger basert på dataene de er trent på, menneskelig feedback i treningen og justering og begrensninger som legges på modellene og tjenestene, sier Lindahl.
Lindahl legger til at selv om ytringsfriheten ikke gjelder for maskiner, vil maskingenererte ytringer i ustrakt grad være beskyttet av informasjons-, menings- og ytringsfriheten. Fordi maskinene fungerer som et verktøy for menneskers ytringer og utfoldelse.
- Å håndtere utviklingen vi står midt oppi krever et samspill av regulatoriske, tekniske og politiske løsninger, sier hun.
AI-merking: - Det trengs, og det haster
Foreslår tiltak
Teknologirådet foreslår i rapporten en rekke mulige tiltak. Blant annet mener rådet at vi bør vurdere å utvikle tekniske løsninger for verifisering.
- Mennesker vil trenge hjelp til å se forskjell på hva som er ekte og sant. Tekniske løsninger kan bidra til det. De må utvikles og reguleres. Myndighetene kan kreve at innhold skal merkes. Dette kan bli lovregulert, og det pågår prosesser for det både i Europa og i USA. Der vil myndighetene også merke offenltig informasjon, sier Lindahl.
Hun viser til at EUs nye forordning om kunstig intelligens krever at mennesker skal få vite at de chatter med et AI-system eller hvis de kommuniserer med et biometrisk- eller følelsesgjenkjenningssystem.
- I tillegg vil loven kreve at AI-generert innhold som deepfakes skal merkes, sier Lindahl.
«Kompetansen må styrkes i hele befolkningen, blant studenter, journalister og andre relevante fagmiljø.»
Må styrke kompetanse
Lindahl mener også at vi må stille selskapene til ansvar.
- Det er en viktig oppgave for myndighetene å kreve innsyn i selskapene tjenester og praksis. Selskapenes selv-rapportering har store mangler og varierende kvalitet. Her må myndigheter håndheve lover mer effektivt og kreve at selskapene følger opp sitt rettslige ansvar og forpliktelser.
Teknologirådet mener også at vi må styrke den digitale kildekritiske forståelsen og at det er helt avgjørende at mennesker kan vurdere og verifisere teknologi.
- Kompetansen må styrkes i hele befolkningen, blant studenter, journalister og andre relevante fagmiljø.
«KI-generert» årets nyord: – Mer brukt enn AI
Psykologisk forsvar
Lindahl mener også at vi kan jobbe for å etablere et psykologisk forsvar etter svensk modell.
- Det kan gjøre oss mer motstandsdyktige mot desinformasjon og påvirkningskampanjer.
Hun legger til at behovet for tilgang på pålitelig informasjon øker.
- Mediene har en viktig rolle som garantist for innholdets troverdighet, og vil få en stadig viktigere rolle i møte med generativ kunstig intelligens og økte mengder falskt innhold på nett. Derfor bør disse styrkes.
Ifølge Lindahl vil utbredelsen av skaperkraftige maskiner kunne få store konsekvenser for ytringsrommet - og utviklingen går raskt.
- Det haster med løsninger som kan sikre tilliten til digital informasjon, og da krevers det nytekning rundt hvordan tilliten til digital informasjon kan sikres, i tillegg til løsninger av teknologisk, politisk og regulatorisk art.