OSI med ny definisjon: Metas AI er ikke open source

Meta har skrytt av å ha verdens største open-source AI-modell, og har ingen planer om å slutte med det, selv om de ikke oppfyller de nye kriteriene fra The Open Source Initiative.

Slik presenterte Meta sine Llama-modellene i sommer. Meta hevder fortsatt at Llama er open source, selv om det ikke møter definisjonskravene fra OSI. 📸: Meta (AI-generert)
Slik presenterte Meta sine Llama-modellene i sommer. Meta hevder fortsatt at Llama er open source, selv om det ikke møter definisjonskravene fra OSI. 📸: Meta (AI-generert) Vis mer

The Open Source Initiative (OSI) har omsider kommet med sin definisjon av når en AI-modell er open source.

Det har tatt to år å få på plass dette, og i mellomtiden er det dukket opp flere AI-modeller som markedsføres som open source. Flere av disse oppfyller ikke kravene i definisjonen, som har fått navnet OSAID.

Konsekvensen er at OSI nå står i en mulig konflikt mot aktører som blant annet Meta, melder blant annet The Verge.

Selvdefinert som open source

Meta har selv definert sin Llama som open source, noe som ble problematisert allerede fra starten av.

For mens Mark Zuckerberg i et blogginnlegg skrev at open source var veien videre for AI, så har Llama en Metask tolkning av open source.

Den benyttet ingen av de tradisjonelle kildekode-lisensene som var tilgjengelige ved lansering, og krevde informasjon om brukere som lastet den ned.

De har heller ikke gitt tilgang til dataene som AI'en er trent på.

Krever kjennskap til all data

Og nettopp det siste punktet er en mulig kime til konflikt. Tilgang på treningsdata trekkes fram som et viktig punkt for å kunne kalle en AI-modell for open source, ifølge OSI.

OSAID fordrer nemlig at en kvalifisert bruker skal kunne bygge et tilsvarende system, basert på informasjon om treningsdataene som er brukt på AI'en.

  • Her påpeker de at en komplett beskrivelse av all data skal deles, også beskrivelse av datamateriale som ikke er mulig å dele.
  • For å være i tråd med OSAID må også den komplette kildekoden for å trene og drive systemet må deles.
  • Vekting, parametre for modellen og andre konfigurasjoner må også deles.

Enig med OSI om mye, men...

Så hva vil Meta gjøre, nå som det er etablert en definisjon for open source AI?

Fint lite, er signalet fra Faith Eischen, som er talsperson i Meta.

– Vi er enige med vår partner OSI om mye, men vi er som mange andre i bransjen uenige i den nye definisjonen, sier Eischen til TechCrunch.

Eischen forklarer videre hvorfor Meta mener det er problematisk å skulle definere open source-AI, all den tid utviklingen skjer så raskt.

– Vi vil jobbe videre med OSI og andre deler av bransjen for å gjøre AI mer tilgjengelig på en ansvarlig måte, uavhengig av tekniske definisjoner, sier Eischen.

Har ingen sanksjonsmakt

OSI har ikke noen måte de kan "straffe" aktører som bruker open source-begrepet i strid med definisjonen som nå er laget. Men de har planer om å flagge modeller som gjør nettopp det.

– Vi håper at når noen avslører misbruk av begrepet, så vil AI-bransjen og -samfunnet si fra om det, sier Stefano Maffulli til Techcrunch. Han er toppsjef i OSI.

– Vi håper de gir beskjed om at de ikke anerkjenner det som open source, og at det tvinger fram en korreksjon hos dem det gjelder, fortsetter Maffulli.