Utviklingen innenfor kunstig intelligens (AI) har gitt utviklere mange nyttige og kraftfulle verktøy. Samtidig treffes man av flere ulike typer regelverk og nye problemstillinger ved bruk av generativ AI.
Derfor har NAV utvikla en veileder for bruk av kunstig intelligens.
- Det er betydelig risiko for å trå feil dersom teknologien brukes feil, og vi har derfor utviklet en veileder for å kunne teste og ta i bruk denne teknologien på en ansvarlig måte, sier Cathrine Pihl Lyngstad, leder for dataseksjonen i NAV, til kode24.
AI-merking: - Det trengs, og det haster
Jurister og utviklere
Ifølge Lyngstad startet NAV-teamet som jobber med ansvarlig AI og datavitenskap å jobbe med veilederen i april i år.
- For å løse utfordringene i skjæringspunktet mellom matematikk, teknologi og juss på best mulig måte, har vi jobba tverrfaglig med dette. Her har både jurister, datavitere, utviklere og ledere bidratt på ulike måter, forteller Lyngdstad.
Hun forteller at målet med veilederen er å gjøre det lett for medarbeiderne i NAV å gjøre gode vurderingen i arbeidshverdagen, og hjelpe dem å unngå å bryte ulike lover og retningslinjer.
- Med generativ AI påvirkes de av lover og regler som de kanskje ikke har vært så godt kjent med fra før, fordi det ikke tidligere har vært så relevant for deres rolle. Veilederen vil også hjelpe medarbeidere med å forstå de ulike risikoene med teknologien og bakgrunnen for de ulike kravene som stilles opp, sier Lyngstad.
Flere ting må vurderes
Lyngstad trekker fram at generativ kunstig intelligens er et felt som er raskt i endring.
- Derfor vil veilederen og tilhørende dokumentasjon oppdateres etter hvert som utviklinga skjer og vi bygger mer erfaring på området.
Ifølge Lyngstad er veilederen tredelt.
- Første del er generell og guider deg gjennom de viktigste forholdene som må vurderes når man vurderer å bruke generativ AI.
Hun sier at det er flere forhold å vurdere:
- Skal personopplysninger behandles, hvilke uheldige konsekvenser kan bruk av generativ AI gi? Hvor høye krav har man til kvaliteten på det som genereres av AI-løsningen, for eksempel krav til korrekthet og konsistens?
Vil gjøre det enklere
Andre del av veilederen inneholder generelle krav som gjelder alle bruksområder for generativ AI. Disse kravene omhandler ting som merking av løsninger som bruker AI og dokumentasjon.
Tredje og siste del inneholder krav til mer konkrete bruksområder – for eksempel generativ AI for kodestøtte, som NAV for øyeblikket jobber med mer spesifikke retningslinjer for.
- Avhengig av de ulike casene gir veilederen anbefalinger og krav som skal gjøre bruken så forsvarlig og trygg som mulig, samtidig som NAV utnytter mulighetene i teknologien på de riktige områdene.
- Hva skjer dersom punktene blir brutt?
- Veilederen skal gjøre det enklere å navigere i regelverket. Om veilederen ikke følges vil det være større risiko for at lovkrav brytes med de konsekvensene det eventuelt medfører, sier Lyngstad.