Forrige uke samla sikkerhetsfestivalen Bsides norske sikkerhetsfolk i Oslo. En av foredragsholderne var Martin Ingesen, som er grunnlegger av og daglig leder i pentester-selskapet Kovert:
Han snakket om hvordan kunstig intelligens (AI) og store språkmodeller (LLM-er) kan utnyttes for å "styrke offensive sikkerhetsstrategier, automatisere repeterende oppgaver og gi dypere innsikt for fagfolk i feltet".
- Det vil være ekstremt potent å putte ChatGPT og lignende verktøy i hendene til folk som driver med IT-sikkerhet, sier Ingesen til kode24.
Bør bruke kunstig intelligens
Ingesen mener IT-sikkerhetbransjen kan være treige med å ta i bruk nye ting.
- Vi bruker for eksempel ikke Devops. Det er som nytt for oss, selv om det har eksistert i ti år. Problemet er jo at det må være noe innovasjon i sikkerhetsfeltet også, for at fagfeltet skal bli drevet videre. Vi må anta at de ondsinna trusselaktørene som er der ute vil gjøre det samme, sier han.
Ingesen mener at det er et stort potensial i å bruke kunstig intelligens til å gjøre sikkerhetsarbeidet mer effektivt. Sikkerhetstesteren trekker fram den populære nettverksskanneren Nmap, som et eksempel på hvordan AI kan effektivisere fagfeltet.
- En ting er å lese outputen etter å ha brukt Nmap mot en host. Men hva med 10.000 host-er? Det blir litt tidkrevende å se gjennom manuelt. Her kan du for eksempel gi en LLM outputen til Nmap.
«Det er ikke perfekt, men det virker som det er noe der.»
Kan hjelpe sikkerhetstestere
Ingesen nevner også andre områder hvor kunstig intelligens kan være nyttig, som å skrive phishing. Eller du kan gi en LLM dokumentasjonen til et verktøy du bruker.
- Hvor mange ganger har man ikke sittet og styrt med: "Hvordan knekker jeg den og den hashen? Hvilke parametere kan jeg bruke?" Jo, det kan en språkmodell i teorien hjelpe deg med.
Ingesen viser til at sikkerhetstestere må lese mye informasjon når de tester. I stedet for å gå igjennom all infoen med forstørrelsesglass, kan den mates inn i en modell som du stille spørsmål til. For eksempel om hvor backup-serveren er.
Ifølge ham kan også AI hjelpe deg når du er på innsiden av et nettverk og har fått tilgang til en hel mengde med dokumentasjon og dokumenter.
- Så kan du velge: Lese alt manuelt eller laste ned all informasjonen og bygge en egen modell. Det har vi jobbet litt med selv. Det er ikke perfekt, men det virker som det er noe der, sier Ingesen.
Blir en slags veileder
- Ser en allerede at større sikkerhetsselskaper skreddersyr sine egne modeller?
- Man ser at leverandører av sikkerhetsprogramvare integrerer prateroboter og lignende. Disse kan du for eksempel spørre om alle endepunkter til en programvare, sier Ingesen.
Men ifølge ham er potensialet enda større: Hvorfor skal du for eksempel gidde å skrive en SQL-spørring når du bare kan stille spørsmål til en språkmodell, som kan gi deg informasjonen du trenger?
Ingesen tror at det også er mulig å automatisere en hel del oppgaver med kunstig intelligens.
- Det er bare et spørsmål om tid før det skjer at jeg kan få en modell til å fortelle meg hva som har skjedd på den og den host-en. Eller at vi kan spørre den hvordan den anbefaler å håndtere en hendelse, og blir en slags veileder i jobben din, sier Ingesen.
Ikke snakk om Skynet
- Hva er mest bullshit i sammenheng med LLM-er og sikkerhet?
- Det er jo at man tror at AI tar over verden og at Skynet er neste, sier Ingesen.
Han viser til at vi fortsatt bare har å gjøre med en smal kunstig intelligens, til forskjell fra en generell kunstig intelligens.
- Mange har også vært sensasjonalistiske og erklært at nå kan hvem som helst lage skadevare. Men koden som blir generert er ofte mangelfull, sier Ingesen.
kode24 har tidligere skrevet om at analyseselskapet Gartner mener at AI befinner seg i kategori to av fem i hype-syklusen, nemlig "Peak of Inflated Expectations". Også Ingesen tror at hypen er på vei til å gå ned.
- Når ting blir mer demokratisert og tilgjengelig, da blir teknologien mer hverdags og kjedeligere, sier han.