Det høres rart ut å omtale Google som en utfordrer og underdog, men innen AI-spacet har de vært det.
OpenAI har dominert utviklingen av avanserte språkmodeller de siste årene. Nå har derimot Google gradvis gjort store fremskritt:
Googles Gemini-modeller gir oss lavere kostnader, raskere responstid og større kontekst.
– Hvorfor har vi ikke gjort dette før?
Cobrief har siden oppstarten hatt et sterkt fokus på å bruke AI-teknologi på en måte som gir reell verdi.
Vi har nå implementert de nye Gemini-modellene i produksjon og opplever betydelige forbedringer i både kostnader og ytelse.
Vi i Cobrief synes Google har imponert med sine nye modeller, spesielt Gemini 2.0-serien og nå Gemini 2.5 Pro som ble lansert 25. mars. De lanserer i et voldsomt tempo, og vi ser at de ikke bare konkurrerer med OpenAI, men også overgår dem på flere områder.
Mange selskaper snakker om AI, men vi sørger for at vi faktisk bruker den mest avanserte teknologien som er tilgjengelig. Kundene får verdien rett ut nå. Vi har sett store besparelser og forbedringer ved å bytte til Google.
Ofte vet man ikke hvordan man egentlig har det, før man bytter til noe bedre. Nå tenker vi bare “oi, hvorfor har vi ikke gjort dette før?”.
Samtidig hadde det ikke vært mulig for bare noen måneder siden.

Advarer mot å bruke «åpne» AI-modeller kommersielt
Dette har det gitt oss
Det vi snakker om er at vi i Cobrief nå har implementert Googles Gemini-modeller i produktet vårt.
Etter å ha brukt OpenAI siden oppstarten, har vi nå valgt å i stor grad bytte til Googles språkmodeller (LLM-er, Large Language Models) for å oppnå lavere kostnader, raskere responstid og større kontekstvinduer.
Overgangen til Google Gemini gir oss flere fordeler og inkluderer:
- Bedre ytelse og kostnadseffektivitet: Modellene er både billigere og raskere enn GPT-4o gjennom Azure.
- Mer kontekst: Fra tidligere 128K token-grense til nå opptil 1M eller 2M tokens, noe som gjør det mulig å gi mye mer relevant informasjon til AI-en.
- Raskt ute i Europa: Azure i Europa henger ofte måneder etter på nye OpenAI-modeller. I Google Cloud tilgjengeliggjøres Gemini-modellene raskt, med høy kapasitet og i flere lokasjoner i Europa.
- Strukturert output: Med støtte for OpenAPI-baserte schemaer i Gemini kan modellen levere strengt strukturerte svar, noe som er avgjørende for pålitelig AI-bruk i produksjon.

Googles nyhet er helt gratis: «Og gjør en god jobb!»
Gemini 1.5 kom i våren 2024, men det er gjort flere oppdateringer kontinuerlig gjennom sommeren og høsten som har forbedret modellene betydelig. I desember lanserte de Gemini 2.0, som var et stort hopp i kvalitet og hastighet sammenlignet med pris. Og nå mens jeg skriver denne artikkelen lanserte de til og med Gemini 2.5 Pro, enda en stor nyhet!
Gemini-modellene er smartere, raskere og mer kostnadseffektive enn alternativene vi tidligere har brukt.
Opptil femdoblet hastighet
Cobrief kan med disse endringene øke hastigheten på AI-funksjonene sine opptil fem ganger. Sammenligning fra analysenettstedet Artificial Analysis viser de faktiske tallene:

Med Gemini 2.0 får Cobrief mye mer intelligens for pengene.
Diagrammet under viser også at Gemini 2.0 Flash bare koster 4 prosent av prisen til GPT-4o, som vil si at Cobrief kan prosessere 25 ganger mer data for samme pris, samtidig som modellen er smartere.

Vi er veldig interessert i å snakke med utviklere som enten mener vi er på ville veier med vår entusiasme for Google Gemini, eller som kanskje syns det vi gjør høres kult ut!