Nå kan du ikke stole på videomøter, heller: Svindlerne tar på seg digitale AI-masker

Selskaper må forberede ansatte på å være en del av forsvaret mot svindelforsøk, mener Trend Micro. De mener svindlerne får stadig bedre verktøy gjennom AI.

📸 Christina Morillo / Pexels
📸 Christina Morillo / Pexels Vis mer

Du sitter på hjemmekontoret, og hører den kjente og «kjære» lyden av et Teams-anrop. Sjefen ringer.

Du svarer, og sjefens ansikt dukker opp på skjermen.

Din hjelp trengs, fordi det er et lite problem som må løses.

«Kan du overføre X antall kroner til...?»

Neste generasjon lureri

– Dette scenarioet er ikke lenger science fiction. Det er en reell trussel i dagens digitale virkelighet, skriver Trend Micro i et innlegg på sine nettsider.

Ifølge en ny rapport fra selskapet skal såkalte deep fakes og mer kompliserte AI-verktøy få en stadig større rolle innen digital kriminalitet.

De nye verktøyene gir rom for å svindle flere, og det er ikke lenger nødvendig å være teknisk dyktig. Flere verktøy skal nå gjøre det mulig for alle å lage overbevisende, falske videoer.

Ett av de nyeste tillater kriminelle å «bytte» ansiktet til den i samtalen. Med hjelp av ett bilde kan det lages en realistisk 3D-avatar, som også følger ansiktet til den som har «kledd seg ut».

Dette gjør det vanskeligere å avsløre et svindelforsøk i en videosamtale, i en nyhetssending eller tilsvarende sammenhenger, skriver de.

Krever nye sikkerhetsrutiner

Trend Micro anbefaler nå virksomheter å gå over sikkerhetsrutinene, og -systemene sine.

– Tradisjonelle tiltak holder ikke lenger, skriver de.

I tillegg til gjennomgangen, mener de også ansatte må være rustet for å identifisere truslene, slik at de også blir en del av forsvaret mot svindlerne.

– Enkeltindivider bør være forsiktige med kommunikasjon de ikke har tatt initiativ til selv. De må forsikre seg om at en digital interaksjon er ekte, skriver de videre.

Misbruk framfor trening

Et annet trekk som Trend Micro har identifisert, er at kriminelle grupper har funnet en måte å misbruke store språkmodeller andre har laget, framfor å utvikle sine egne.

Dette blir beskrevet som «jailbreak-as-a-service», og er i praksis en måte å komme seg rundt sikkerhetsmekanismer i løsninger som ChatGPT.

Dermed er det mulig å få løsningen til å hjelpe deg begå kriminalitet eller andre uetiske handlinger.