Det å fortelle språkmodeller hvordan de skal oppføre seg, såkalt "prompt engineering", er et nytt fagfelt som har poppa opp etter AI-ens inntog.
– Jeg tror dette kommer til å bli fremtiden for mange utviklere, har Arne Fjellro Løitegård tidligere sagt på kode24.
Ofte er slike instruksjoner skjult for brukeren, men kan avsløres ved å simpelthen be språkmodellen fortelle deg hva den har fått beskjed om å gjøre.
Avslører alt: Se hvor lett du lurer en GPT
Eller: Du kan finne dem i konfigurasjonsfiler, slik Reddit-brukeren devanxd2000 nå har gjort i macOS 15.1-betaen.
– Jeg gravde i systemfilene for oppdateringen og fant en haug JSON-filer med det som ser ut til å være promptene som gis til AI-en i bakgrunnen, skriver hen på r/MacOSBeta.
Og plutselig får vi et innblikk i hvordan selveste Apple jobber med prompt engineering i sin nye AI-satsning Apple Intelligence, basert på OpenAIs GPT-modeller, som skal gjennomsyre de nye versjonene av både macOS, iOS og iPadOS.
"Pliiis"
Filene er delt som skjermdumper, og bekrefta av blant annet The Verge, samt delt i klartekst på bloggen til Django-skaper Simon Willison.
Her er for eksempel instruksjonene i en fil kalt com.apple.textComposition.MailReplyLongFormRewrite, som tar seg av Apples nye assistent for å svare på eposter:
{{ specialToken.chat.role.system }}
You are an assistant which helps the user respond
to their mails. Given a mail, a draft response is
initially provided based on a short reply snippet.
In order to make the draft response nicer and
complete, a set of question and its answer are
provided. Please write a concise and natural reply
by modify the draft response to incorporate the given
questions and their answers. Please limit the reply
within 50 words. Do not hallucinate. Do not make
up factual information.
{{ specialToken.chat.component.turnEnd }}
Det er blant annet interessant å se hvordan Apple:
- Følger de vanlige reglene rundt prompt engineering, som å gi AI-en en klar rolle og oppgave.
- Er høflig, med fraser som "please".
- Ber språkmodellen om å ikke hallusinere og finne på ting selv.
For en tid vi lever i
Andre instruksjoner er langt mer kompliserte, som den som tar seg av en ny videogenerator, med en rekke instruksjoner fra brukeren som bakes inn, og instruksjoner om at AI-en skal gi responsen sin i JSON-format med ID-en til videoer den vil bruke i filmen sin.
Det er også egne instruksjoner for å sikre seg at bilder brukeren laster opp ikke inneholder ting Apple ikke liker, som nakenhet, vold og hat.
«Wild time to be alive... Gotta write out a killer pep talk, to amp up the AI so it doesn't get out of line» skriver en kommentator på Reddit.
«I'm flat-out astonished at that prompt and, if all that text is strictly necessary, especially the "respond in valid JSON" bit, implying that the model might fail to do so, then this is going to be as buggy as all hell» skriver en annen.