kode24 har tidligere skrevet om hvordan Sam Altman, sjef i OpenAI, både har vitnet om farene med kunstig intelligens (AI) for den amerikanske kongressen og skrevet under på et opprop mot AI.
Nå kan avisen TIME fortelle at OpenAI i kulissene har lobbet "for at betydelige elementer av den mest omfattende AI-lovgivningen i verden – EUs AI-lov – skal utvannes på måter som vil redusere reguleringsbyrden på selskapet."
- Går noe galt med AI, vil ingen gassmasker hjelpe deg
Har fått tak i dokumenter
TIME har nemlig fått tak i dokumenter om OpenAIs kontakt med EU representanter.
- I seg selv er ikke GPT-3 et høyrisikosystem, argumenterte OpenAI i et tidligere syv-siders dokument selskapet sendte til EU, og som TIME har publisert sammen med avsløringen.
Samtidig legger OpenAI til at modellen hadde "evner som potensielt kan brukes i høyrisiko-brukssaker".
Foreslår eget AI-byrå for å regulere "ny atombombe"
Mener lobbyering lyktes
Avisa skriver at selskapet i flere tilfeller foreslo "endringer som senere ble gjort i den endelige teksten" og mener at OpenAIs lobbyering var en suksess.
Det endelige utkastet til EUs AI-lovgivning inneholdt for eksempel ikke tidligere setninger om at AI-systemer med generelle formål bør regnes som iboende høyrisiko.
Som kode24 har skrevet før, klassifiserer EUs nylig vedtatte AI-regulering systemene i fire ulike risikonivåer fra minimal til uakseptabel.
OpenAI setter punktum for store språkmodeller: - Enden av en epoke
OpenAI sier de støtter EU
Selv sier OpenAI til TIME at de på forespørsel fra politikere i EU ga en oversikt over selskapets tilnærming til å distribuere systemer som GPT-3 på en sikker måte, og at de kommenterte det daværende utkastet basert på denne erfaringen.
- Siden den gang har [EUs AI-lov] utviklet seg betydelig, og vi har snakket offentlig om teknologiens fremskrittsegenskaper og bruk. Vi fortsetter å engasjere oss med beslutningstakere og støtter EUs mål om å sikre at AI-verktøy bygges, distribueres og brukes trygt nå og i fremtiden, sier selskapet til TIME.