Meta, selskapet bak Facebook og React, lanserte tirsdag denne uken sin neste generasjon språkmodell (LLM), Llama 2. Det skriver The Register.
Den store nyheten er at Llama 2 i motsetning til den første versjonen ikke er begrenset til forskningsformål. Meta fryktet misbruk av Llama, og du måtte derfor søke om tilgang.
Llama 2 er ifølge Meta nå åpen kildekode, og hvem som helst kan laste ned språkmodellen og bruke det til hva man vil – også til å bygge kommersielle produkter.
Enkelte vil kanskje protestere på bruken av begrepet "åpen kildekode", ettersom det er enkelte begrensninger på bruken av Llama 2 (for eksempel bruk til ulovlige formål). Llama 2 bruker heller ikke en av de vanlige åpen kildekode-lisensene.
Partnerskap med Microsoft
Lanseringen av Llama 2 skjer i samarbeid med Microsoft, som ifølge Meta er "foretrukken partner" for Llama 2. Kanskje litt overraskende, ettersom Microsoft også er dypt involvert i OpenAIs språkmodeller, som brukes i blant annet ChatGPT.
I tillegg har Meta et samarbeid med Amazon Web Services (AWS). I praksis betyr dette at du vil kunne bruke Llama 2 via både Microsoft Azure og AWS.
I en pressemelding som ble sendt ut i forbindelse med Microsofts partnerevent Inspire, skriver Microsoft at både de og Meta ønsker å demokratisere AI og fordelene det gir, og at de er begeistret over at Meta nå åpner opp Llama 2.
Utviklingen av språkmodeller kan stanse: - Blir vanskeligere
Forhåndstrente modeller
Llama 2 er et sett med forhåndstrente AI-modeller i tre ulike størrelser: 7, 13 og 70 milliarder parametre). Disse kan lastes ned, eller tas i bruk via Azure eller AWS.
Ifølge Meta er Llama 2 basert på samme arkitektur som forrige versjon, men trent på 40 prosent flere "tokens", som er biter av tekst hentet fra ulike kilder. Den nye språkmodellen kan også håndtere mer tekst i input-prompten.
Det er to varianter av Llama 2: Den vanlige Llama 2, og Llama 2-Chat. Den siste er laget spesielt for toveis kommunikasjon, og skal ifølge The Register være finjustert for å gi mer hjelpsomme og sikrere svar. Dette er gjort gjennom såkalt forsterkende læring.
Du finner informasjon om Llama 2 og hvordan du setter det opp her. Der er det også en lenke til et forskningsdokument med en teknisk gjennomgang av språkmodellen.