Etiske hackere som prøver å forstå ChatGPTs o1 trues med utestengelse

OpenAI og ChatGPT advarer nå brukere som prøver å forstå hvordan o1 tenker ut svarene sine.

Spør ChatGPT om hva som helst, bare ikke om reasoning trace... 📸: Serene Lee / SOPA Images / Shutterstock / NTB
Spør ChatGPT om hva som helst, bare ikke om reasoning trace... 📸: Serene Lee / SOPA Images / Shutterstock / NTB Vis mer

Hvis du prøver å forstå hvorfor den nye utgaven av ChatGPT svarer som den gjør, så kan det få konsekvenser.

Flere etiske hackere har forsøkt å komme seg «under panseret» på den nye o1-språkmodellen, og har i etterkant mottatt eposter fra OpenAI.

Budskapet i eposten er klart, melder Ars Technica:

– Fortsett på denne måten, og du kan miste tilgangen til tjenesten.

Reasoning trace

Som kode24 tidligere har omtalt, så skal de nye utgavene o1-mini og o1-preview kunne «tenke seg fram til svarene» den gir. Den skal være flinkere på å resonnere, og i forlengelsen av det, også til å programmere.

ChatGPT vil gi deg svaret den har kommet fram til, men presenterer ikke hele «tankerekka» fram dit. Det har ført til at mange har tatt det å tvinge fram denne, som en utfordring.

Flere brukere på X har delt skjermbilder av hvordan o1-mini har reagert på spørsmål om en såkalt reasoning trace.

– Din forespørsel er blitt flagget som et potensielt brudd på brukervilkårene, går igjen som svar.

Advares mot å gjenta forsøkene

En av de som har delt en skjermdump av erfaringen er Marco Figueroa, som har ansvaret for Mozillas bug bounty-programmer.

I en epost viser OpenAI til at han skal ha brutt brukervilkårene, og at gjentakelser vil føre til at han mister tilgangen til denne utgaven av ChatGPT.

Figueroa påpeker følgene av at brukere som driver med redteaming og etisk hacking skal risikere å bli utstengt, når de tross alt jobber for å identifisere svakheter og sikre løsningen.

OpenAI har tidligere forklart at det er et bevisst valg å skjule tankerekkene for brukerne. De har argumentert med at de trenger rådataene selv, både for å kunne avdekke en mulig manipulerende AI, men også av konkurransehensyn.

– Vi anerkjenner at dette valget også har ulemper, skriver de i en bloggpost.