"Mer enn 1.100 personer, inkludert Elon Musk, Apple-legenden Steve Wozniak og Tristan Harris fra Center for Humane Technology, har signert et åpent brev som oppfordrer «alle AI-laboratorier til umiddelbart å pause opplæringen av AI-systemer kraftigere enn GPT-4 i minst seks måneder»", skrev skrev kode24 nylig.
Norske AI-utviklere kode24 har snakket med, Ivar Austin Fauske i Accenture og Malte Loller-Andersen i Knowit, er delvis enige med påstanden - og advarer at utviklingen kan gå for fort.
Elon Musk og Steve Wozniak slår alarm: - Stans utviklingen nå!
«Utviklere har helt klart et moralsk ansvar.»
God ide med uavhengig gjennomgang
Malte Loller-Andersen, utvikler i Knowit, sier at AI-systemene utvikles i et forrykende tempo.
- Og om det fortsetter i samme tempo kan det bli plutselig gå litt for langt. På den andre siden er det kanskje litt hardt å ta i å stanse all utvikling i seks måneder, sier han til kode24.
Han legger til at det er vanskelig å si om effektene kun vil være positive og risikoene håndterbare på den tiden.
- Jeg synes det er en god ide med uavhengig gjennomgang av AI-systemene, og tror det er veien å gå når man lager såpass smarte AI-systemer som påvirker samfunnet i stor grad.
Malte Loller-Andersen: Hvordan programmerer man maskinlæring og kunstig intelligens?
Utviklere har selv et ansvar
Loller-Andersen viser til at EU har laget retningslinjer for utviklingen av AI-systemer.
- Det har blitt gitt bøter til AI-selskaper som samler data i gråsonen, slikt som ansiktsbilder. Jeg tror det er viktig at det offentlige er med i bildet. Slik at selskaper ikke løper løpsk når det gjelder innsamling av data, utvikling av AI-systemer og ikke minst i bruken av dem.
- Har utviklere selv et moralsk ansvar for å bidra til å utvikle AI som ikke er skadelig?
- Utviklere har helt klart et moralsk ansvar for å bidra til å lage etisk AI. Utfordringen blir at det er individuelt hva hver enkelt anser som skadelig AI. Det blir vanskelig om det skal være opp til hver enkelt utvikler å bestemme hva som blir moralsk riktig og hva som ikke er det. Da tror jeg nok vi ender opp med situasjoner der man prøver å se hvor langt man kan tøye grensene. Derfor er det nok lurt med felles retningslinjer.
«Det største problemet på kort sikt er at det er veldig enkelt å lage "fake news".»
Kommer nærmere generell AI
Ifølge Loller-Andersen vil utviklingen av AI bare fortsette.
- Metodene som er brukt for å lage de nyeste systemene er egentlig relativt gamle, de har bare blitt gjort iterativt bedre de siste ti årene og utført i en større skala enn før. Helt frem til de siste par årene har jeg tenkt at man må finne nye metoder for å nå generell AI, men det er jeg ikke så sikker på lenger.
Han legger til at man de neste par årene nok må gjøre iterative forbedringer.
- Men vi kommer nærmere og nærmere generell AI. Å tro at vi når det i 2024 er nok veldig optimistisk, men det skjer mye på feltet om dagen. Det største problemet på kort sikt er at det er veldig enkelt å lage "fake news". La oss håpe vi ikke blir spammet ned av det.
- Større sjanse for romvesen enn at GPT-4 har «generell intelligens»
Reelle utfordringer med AI
Ivar Austin Fauske, utvikler i Accenture, er enig i de etiske dilemmaene som forskerne i brevet tar opp.
- Det er reelle utfordringer som vi må ta stilling til. Når det er sagt, så tror jeg ikke vi er der ennå. Teknologiene det varsles rundt har enda mange svakheter som en velinformert person kan peke ut. Det spenner seg fra enkle fakta til hull i resoneringer, sier han.
Fauske mener det er viktig å huske at GPT og lignende teknologier er lingvistiske eksperter og ikke orakler.
- Utfordringen ligger dog i at de er flinke til å presentere svar som plausible. Kanskje ikke så ulikt politikere? sier han.
Plutselig klikka det for Johannas Copilot: - Hva skjedde her?
Kan brukes på en skadelig måte
Generelt mener Fauske at AI er et verktøy som kan brukes til å løse mange problemer og utfordringer i verden.
- Men som med alle verktøy, kan det også brukes på en skadelig måte. Det er derfor viktig å ha reguleringer og etiske retningslinjer på plass for å sikre at AI brukes på en ansvarlig måte.
Fauske mener også at utviklere har et moralsk ansvar for å utvikle AI som ikke er skadelig.
- Hva som er og ikke er skadelig kan være vanskelig å bedømme. Det er også viktig å huske at utviklere ikke alltid har full kontroll over hvordan AI brukes eller implementeres. Det er derfor viktig at alle som bruker AI, inkludert bedrifter og regjeringer, tar ansvar for å bruke det på en ansvarlig måte.
- Internett blir ikke til å kjenne igjen, skriver Jørgen om AIosmosis
Fortsatt litt før AI blir skummel
Fauske mener at myndigheter og samfunnsdebattanter bør sette AI på agendaen, slik at man er bedre forberedt på det som kommer.
- Dog tror jeg at vi fortsatt har et stykke å gå før AI-en blir for skummel. Jeg tror også at vi utviklere først og fremst fortsatt er mest interessert i hva som er mulig og tar resten deretter.
Ifølge Fauske vil AI fortsette å utvikle seg raskt og bli brukt til å løse mange problemer og utfordringer fremover.
- Jeg vil sitere en tweet jeg ikke husker kilden på "AI will not take your job. A person who uses AI will". Som med alle teknologiske skifter opp igjennom så faller en del jobber bort mens nye blir til. Mange skumle scenarioer, som deepfakes, tror jeg også kan løses med AI, for å avsløre dem. SciFi-scenarioet der AI tar over tror jeg fortsatt er et stykke unna, sier han.