Meta gjør Llama mer høyrevridd, vil den skal ligne mer på Grok

Meta justerer AI-en "for å bli kvitt bias". – Men denne tilnærmingen om å "forstå begge sider" er falsk nøytralitet, mener eksperter.

Meta-sjef Mark Zuckerberg (her med blikket mot venstre) har i flere omganger varslet endringer hos Meta etter at USA fikk Trump som president. Nå skal Metas AI også bli "mindre venstrevridd). 📸: Mario Anzuoni / Reuters / NTB
Meta-sjef Mark Zuckerberg (her med blikket mot venstre) har i flere omganger varslet endringer hos Meta etter at USA fikk Trump som president. Nå skal Metas AI også bli "mindre venstrevridd). 📸: Mario Anzuoni / Reuters / NTB Vis mer

Studier har over flere pekt på at AI, i dette tilfellet store språkmodeller, ofte kan være preget av å ha blitt trent på data med diskriminerende undertoner.

Ironisk nok, argumenterer Meta med det stikk motsatte, og argumenterer med at innhold på internett har gjort deres språkmodell Llama for venstrevridd.

Dette er noe av det de har jobbet med å endre i Lllama 4, med mål om å gjøre den bedre til å forstå og argumentere for "begge sider" av en sak.

Nok en politisk endring

Meta har allerede vært i hardt vær for endringer de har gjort på mangfold og moderering etter at Donald Trump ble president i USA. Nå er det altså AI-enes tur til å få merke de politiske endringene.

– Det er godt kjent at alle de store språkmodellene har hatt problemer med bias. Mer spesifikt, så har de vært venstrevridd når det gjelder spørsmål om politikk og samfunn, skriver Meta i et blogginnlegg om temaet.

– Dette er på grunn av treningsdataene, som finnes på internett, hevder de.

Elise Kristiansen har tidligere skrevet et innlegg om hvordan bias i treningsdata virker på motsatt vis, og om hvordan dette gjør at AI forsterker diskriminering:

Allerede gjort en innsats

I blogginnlegget skriver Meta også om endringene på dette området, sammenlignet med tidligere utgaver av Llama.

  • Andelen temaer som Llama 4 vil avstå fra å diskutere er senket fra 7 prosent i Llama 3.3, til under 2 prosent.
  • Llama 4 skal være langt mer balansert, utifra hvilke prompt den nekter å svare på.
  • Tester skal vise at Llama 4 er blitt mer som Grok, når det gjelder hvor ofte den gir svar med klar politisk vridning. De mener selv det er halvert fra Llama 3.

Meta er også tydelig på hva som er det endelige målet, nemlig å fjerne bias helt fra deres AI-modeller:

– Som del av dette arbeidet, skal vi tilpasse Llama slik at den svarer på spørsmål innen flere temaer, kan svare folk med ulike standpunkter uten å være dømmende eller favorisere noen synspunkter over andre.

– Falsk nøytralitet

Flere eksperter sier til 404 Media at de lurer på hvorfor det er viktig å vri modellen mot høyre, og hvordan den velger når "begge sider" er viktige å lytte til.

En av disse er Abeba Birhane, seniorrådgiver for ansvarlig AI i Mozilla-stiftelsen. Han påpeker at det er farlig å forholde seg til vitenskapelige og empiriske spørsmål som klimaendringer, helse og miljø, som om de kun handler om å være høyre- eller venstrevridde.

– Denne tilnærmingen om å forstå "begge sider" er falsk nøytralitet. Det er som å behandle informasjon fra en vaksinemotstander som den du får fra en lege. Den ene er farlig og uvitenskapelig, den andre kan dokumenteres med data, fortsetter han.

404 Media har vært i kontakt med Meta om valget om å jobbe mot bias. Facebook-eieren valgte da å henvise tilbake til blogginnlegget og to studier, som viste til at store språkmodeller ofte er venstrevridde.

Nylig lansert i Norge

Det er også verdt å nevne at dette, svært nylig, ville vært "utenriksstoff" i kode24. Slik er det ikke lenger.

For drøye to uker siden ble det klart at Meta skulle rulle ut sine AI-verktøy også til europeiske brukere, og det har vist seg at dette også gjaldt for Norge.

Det er riktignok nesten ett år etter det som var planlagt, som følge av uenighet knytta til vilkår for trening på brukerdata. Samtidig er det begrensninger i de europeiske verktøyene inntil videre.