Google lanserer Gemini 2.0 Flash – med masse nytt for utviklere

Googles nye flaggskip-AI-modell Gemini 2.0 Flash kan lage tekst, bilder og tale, kalle tredjeparts tjenester – og kjøre kode.

Google har lansert Gemini 2.0. 📸: Google / skjermbilde
Google har lansert Gemini 2.0. 📸: Google / skjermbilde Vis mer

Google lanserte onsdag kveld norsk tid den neste store oppdateringen til sin Gemini-AI-modell – Gemini 2.0.

Google-sjef Sundar Pichai skriver i et blogginnlegg at de i løpet av året som har gått siden lanseringen av Gemini 1.0 har investert mye i det som kalles "agentiske modeller".

Dette er modeller som ifølge Google "kan forstå mer av verden rundt deg, tenke flere skritt fremover og utføre handlinger på dine vegne – med veiledning fra deg".

I første omgang lanserer Google en versjon av Gemini 2.0 kalt Gemini 2.0 Flash, som vil være tilgjengelig gjennom Gemini API-ene og Googles AI-utviklerplattformer – AI Studio og Vertex AI.

Håndterer tekst, bilder og lyd

Gemini 2.0 Flash bygger videre på Gemini 1.5 Flash, som utelukkende kunne produsere tekst.

Ifølge Google skal Flash 2.0 være dobbelt så rask som 1.5 Pro, med bedre resultater.

Flash 2.0 kan også gjøre mer enn 1.5 Pro, og støtter blant annet multimodalitet for input ved at du kan fore modellen med bilder, video og lyd. I tillegg har den også multimodal output, som betyr at den kan generere bilder blandet med tekst, samt gjøre om tekst til tale på flere språk.

Denne videoen viser hvordan Gemini 2.0 kan lage bilder som en del av en samtale med modellen:

Kjør kode og kall opp eksterne verktøy

Modellen kan også kalle verktøy som Google Search, og den kan kjøre kode og kalle tredjeparts funksjoner definert av brukerne.

Utviklere kan ifølge Google få Gemini 2.0 til å kjøre flere søk parallelt for å hente inn informasjon mer effektivt, og så kombinere informasjon fra flere kilder for å øke nøyaktigheten. Her er et eksempel:

Med et nytt "multimodal Live API" kan utviklere bygge multimodale applikasjoner som mottar lyd- og videostrømmer for eksempel fra et kamera og lar AI-modellen bruke dette.

Eksempel kan være å lage en AI-chat der du kan chatte med en AI-assistent som ser både deg og skjermen din. Google har en demo her:

Kommer i flere produkter

I løpet av de neste månedene vil Gemini 2.0 Flash bli tilgjengelig i en rekke Google-produkter, som Android Studio, Chrome DevTools og Firebase.

Utviklere vil også kunne registrere seg for å ta i bruk Gemini 2.0 Flash i Gemini Code Assist, og bruke denne som kodeassistent i blant annet Visual Studio Code, IntelliJ og PyCharm. Du finner mer informasjon om dette på ai.google.dev.

Til slutt nevner vi at Google også jobber med en ny eksperimentell AI-basert kodeassistent kalt "Jules", som vil bruke Gemini 2.0.

Jules skal kunne jobbe integrert med GitHub-arbeidsflyten din, håndtere bugfikser og andre tidkrevende oppgaver, endre mange filer av gangen, samt forberede pull requests når den er ferdig.