Mange frykter at kode skrevet av kunstig intelligens kan innføre sårbarheter.
Nå har GitHub oppdatert AI-modellen til Copilot med nye nye funksjoner, inkludert et "sårbarhetsfiltreringssystem" for å blokkere usikre kodemønstre som for eksempel åpner for SQL-injeksjon, eller hardkoda "credentials", skriver Devclass.
Advarer mot å stole blindt på Copilot: - Forslagene inneholder ofte sårbarheter
Forbedrede AI-modeller og -teknikker har også økt akseptnivået for foreslått kode, fra 27 prosent i juni 2022 til 46 prosent i dag, og 61 prosent for Java-kode.
Reduserer antallet uønskede forslag
Ifølge Devclass inkluderer de nye funksjonene en oppgradert OpenAI Codex-modell, forbedrede teknikker for kontekstforståelse, og en oppdatert modell på klientsiden som reduserer antallet uønskede forslag.
Sårbarhetsskanneren bruker store språkmodeller (LLM) for å oppnå en liknende oppførsel som statiske analyseverktøy, ifølge innlegget fra GitHubs produktsjef Shuyin Zhao.
Hvis kildekoden din brukes av Copilot, er koden den skriver da også din?
Vær forsiktig
Copilot er nok fremdeles ikke like streng som statiske analyseverktøy som kjører etter at koden er fullført.
Men at det nå blir plukket opp sannsynlige feil under kodeprosesser kan øke sannsynligheten for at de blir fikset, uten at det avbryter kodeflyten, skriver Devclass.
Det er fremdeles problemer med at Copilot kan kopiere offentlig kode uten å oppgi lisensen. FAQ-en sier at utviklere bør ta forbehold, noe som betyr grundig testing, IP-skanning og sjekke koden din for sårbarheter. Du bør altså være sikker på at IDE-en eller editoren ikke kompilerer eller kjører koden automatisk.