OpenAI skal ha pålagt ansatte å inngå avtaler der de fraskriver seg føderale rettigheter som varslere, blant annet «kompensasjon», melder The Washington Post.
Avisa har fått eksklusiv tilgang til et brev som er sendt til Securities and Exchange Commission (SEC). I brevet blir det også beskrevet hvordan OpenAI krever at ansatte må ha godkjenning fra selskapet for å dele informasjon med sentrale myndigheter.
Det skal heller ikke være noen unntak for å varsle SEC om sikkerhetsbrudd. Heller ikke for tidligere ansatte, som skal være pålagt dette gjennom avtaler om å avstå fra alle former for kritikk av OpenAI.
Dette kan ha ført til ulike former for straff mot ansatte som har sagt fra tidligere, skrives det i brevet. Washington Post har også publisert en anonymisert utgave av brevet i sin sak.
Apple partner med OpenAI, Musk raser: «Uakseptabelt»
Mener ansatte må kunne si ifra
– Disse kontraktene sender et budskap om at «vi ønsker ikke at ansatte snakker med reguleringsmyndigheten», sier en av varslerne til avisa. Vedkommende er anonymisert, som følge av frykt for hevn fra selskapet.
– Jeg tror ikke AI-selskaper kan utvikle en teknologi som er trygg, og i samfunnets beste interesse, dersom de også prøver å gjemme seg fra kritiske blikk, sier varsleren videre.
SEC er tilsynsmyndigheten det er snakk om. De har i oppdrag å hindre markedsmanipulasjon. De forvalter også en varslingsordning, der varslere som kan bli kompensert for gode tips. Tanken er at dette skal motivere varslere til å si ifra om alvorlige, føderale lovbrudd.
Hannah Wong har uttalt seg om saken på vegne av OpenAI. Hun sier at selskapet har en praksis for varslere som skal beskytte av ansattes rett til å varsle på en trygg måte.
– Vi tror også at det er helt avgjørende med gode og grundige debatter om denne teknologien. Vi har allerede gjort viktige endringer til våre rutiner når ansatte slutter, slik at de ikke blir forpliktet til å avstå fra kritikk, sier Wong i uttalelsen.
OpenAI skal ha holdt datainnbrudd hemmelig
Fått kritikk for fokus
OpenAI er blitt kritisert for å ha endret fokus fra å jobbe for menneskehetens beste, til å sette penger foran sikkerhet. En av kritikerne har vært Elon Musk, som var med i en tidlig fase av selskapets historie.
Washington Post har også omtalt et nytt eksempel på dette. I mai skal OpenAI ha hastet gjennom en lansering av sin siste AI-modell for ChatGPT for å nå tidsfristen ledelsen hadde satt. Dette skal ha skjedd til tross for at ansatte hadde uttrykt bekymring for at protokollen for sikkerhetstesting ikke var oppfylt. Hendelsen er også fyldig omtalt hos The Verge.
I en uttalelse nektet talspersonen Lindsey Held for at OpenAI hadde tatt snarveier. Men selskapet anerkjente at lanseringen satte de ulike teamene under press.
Jennifer Gibson i The Signals Network forklarer i et lengre innlegg på deres hvorfor myndighetene er avhengige av varslere fra AI-selskapene.
Hun trekker fram hvordan varslere, som Frances Haugen hos Meta, ofte er den eneste måten myndigheter kan bli kjent med problemer i selskapene. Dette gjelder også når det kommer til AI, mener Gibson. Uten varslere, kan det være vanskelig for myndighetene å innføre reguleringer før det er for sent.