OpenAI lanserte i går sin nyeste språkmodell: GPT-4o.
O-en står for "omni", og ordet betyr, sålangt vi veit, noe sånt som universelt. Og det er nettopp det modellen skal være; den forstår ikke bare tekst, men også lyd og bilde. Altså det som kalles multimodalitet.
Det betyr blant annet at du kan vise ChatGPT ting gjennom kameraet ditt, snakke med den, og oppleve den som enda mer menneskelig – på godt og vondt, kanskje.
Multimodal
Både å snakke til og vise ting til ChatGPT har vært mulig tidligere, også. Men da har modeller som GPT-4 gått omveier for å først forstå bilder og lyd, og så agere på det.
Nå skal språkmodellen gjøre alt på egenhånd. Som blant annet skal gjøre alt mye raskere, og ifølge OpenAI: Bedre.
– Fordi GPT-4o er vår første modell som kombinerer alle disse modalitetene, skraper vi fortsatt bare i overflaten av hva modellen kan gjøre, og dens grenser, hevder OpenAI.
Naturlig preik
Ifølge OpenAI skal GPT-4o forstå lyd like fort som mennesker, og forstå mer enn bare ordene i seg selv. Nå forstår den for eksempel latter og pust, og kan også gi deg den type ting i retur.
Dette gjør at du kan ha samtaler med AI-en deres på en mye mer naturlig måte. På godt og vondt, spør du oss: Det kan virke noe slitsomt å ha en overivrig og utadvendt amerikaner i lomma, ala filmen Her, om du egentlig bare lurer på hvor lenge du skal koke et egg.
Men døm selv, her ser du en demo:
Forstår bilder
Også GPT-4os evne til å forstå bilder, for eksempel gjennom mobilkameraet, kan ha mange imponerende bruksområder, skal vi tro demoene fra OpenAI.
Spesielt for de som er gira på å jukse på leksene sine – som kjent et av de mest populære bruksområdene til AI.
Sjekk for eksempel ut denne demoen:
Kode-assistent
OpenAI gir også ut en Mac-applikasjon, som skal kunne være din personlige assistent uansett hva du driver med på maskina di.
For eksempel programmering: I en demo viser de fram litt kode til ChatGPT, og GPT-4o-modellen forklarer hva som foregår. Trolig kan den også skrive kode for deg, uten at det blir vist fram så langt vi kan se.
Sjekk ut demoen her:
Gratis for alle
GPT-4o-modellen blir først tilgjengelig for ChatGPT Plus- og Team-brukere, for så å bli tilgjengelig for Enterprise-kunder.
Etterhvert skal GPT-40-modellen være tilgjengelig også for ChatGPT Free-brukere, altså de som bare har en gratiskonto.
Ifølge OpenAI skal gratisbrukere da også få tilgang på en rekke funksjoner som man tidligere måtte betale for, som GPTs og GPT Store, men betalende Plus-brukere skal ha opptil 5 ganger høyere grenser på bruken av den nye språkmodellen.
Og helt til slutt: Hvis du vil invitere med deg en ivrig amerikaner-AI i videomøter framover, skal visst det også være mulig: