De siste par årene har vi hatt mange spennende samtaler om bruk av AI, både i min teknologiverden, og med gode kollegaer i andre fag.
Om hvilke muligheter det gir for å utvikle automatisering av oppgaver, til en hjelpende hånd i vanlig tekstproduksjon, eller effektivisering av mer avanserte leveranser og arbeidsoppgaver.
Jeg møter alt fra folk som jobber med komplekse beregninger og bruker sin egen ChatGPT for å utvikle modeller, til de som nesten ikke har testet ut AI i noen som helst form. Og faktisk de som sier de ikke helt har fått med seg hva vi snakker om – AI?
Et av spørsmålene vi må stille oss selv er: Hvordan lager vi gode og forståelige retningslinjer for ansatte når det gjelder bruk av AI i forretningskontekst?
Det må bidra til å definere hvordan vi håndterer produksjon av tekst til internt og/eller eksternt bruk. Det være seg alt fra innlegg på Viva Engage, til artikler og tekster i SoMe, og helt sikkert også leveranser som ganske snart vil ligge i løypa.
Det er flere ting her som snart bør falle på plass.
#1: Informasjonsplikt
Det har vært drøftet en del i media om informasjonsplikt og transparens når det gjelder publisering av tekst laget med AI.
I flere fora er det allerede innført krav, og flere steder er det pålagt å informere at man har benyttet AI i bruk og publisering av innhold.
Vi ser oftere at både reklame, annonser og tekst er tydelig merket med "dette er laget med AI", eventuelt kontrollert og godkjent av et menneske.
– Jeg forbyr AI-generert innhold på kode24!
#2: Opphavsrett
Vi som har jobbet med tekst, foto (og musikk) har ofte hatt et nært forhold til Åndsverksloven og strenge retningslinjer.
Det er spennende og uhyre viktig å fortsette å opplyse om hva slags rettigheter og plikter vi har rundt bruk av AI, og informasjon om når og hvordan det er brukt.
Det gjelder i tekst vi bruker og publiserer internt og eksternt, samt kanskje enda viktigere i tekst og leveranser til kunder og samarbeidspartnere.
#3: Etiske retningslinjer
Mange bedrifter og utdanningsinstitusjoner har også utviklet retningslinjer for etisk bruk av AI. Spesielt rundt at AI-bruken skal være ansvarlig og ikke villedende.
Det kan i mange anledninger være fristende og tidsbesparende å bruke AI.
Da har man et særskilt ansvar for at man har tilstrekkelig kunnskap og kompetanse til å sørge for at innholdet er korrekt.
#4: Personvern
De fleste av oss har fått informasjon om at man må sjekke og kvalitetsikre innhold for brudd på personvern, slik at man overholder EU-direktiver som GDPR.
Vi må rigge oss godt til flere krav som uunngåelig kommer til å komme innenfor personvern og bruk av AI. Nesten all tekst som brukes til AI, blir samlet opp for å trene språkmodellene bak tjenesten.
Man må spørre deg selv: "Har jeg egentlig lov til dette?"
Se alt Gemini 2.0 Flash kan gjøre for deg som utvikler
#5: Dataoverflod
Enda ser jeg for meg utfordringen med hvem som skal ta på seg jobben å sortere og sikre at vi finner rett data, slette, kaste og rydde.
Det blir avgjørende å ta hensyn til hvordan vi håndterer og organiserer data. Uten en strukturert tilnærming til lagring og forvaltning av data, risikerer vi å trene AI på utdatert eller feilaktig informasjon.
Det vil gjøre utfordringen med bruk av AI større.
#6: Rydde, foreldre, ivareta
De fleste bedrifter har store datasamlinger av erfaring, kunnskap, leveranser og usortert data.
Det store kappløpet nå blir å klargjøre data til å kunne trene de avanserte og raske generative AI-verktøyene, så vi får datamodeller som kan gi oss virkelige forretningsfordeler.
– Vil du satse på AI, må du satse på data først!
Viktig framover
Klare retningslinjer og lovgiving om opphavsrett og AI må gå hånd i hånd.
Både for å beskytte intellektuell eiendom, men også for å sikre at vi trener våre AI-systemer på pålitelig og relevant data.
Det vil bli avgjørende å etablere gode rutiner for datastyring, regelmessig gjennomgang, kvalitetssikring og oppdatering av data.
For å sikre at AI-teknologien utvikles på en måte som er både etisk og effektiv.