Et eksempel på den nye metoden dukket opp etter terrorangrepet mot et konsertlokale utenfor Moskva i mars i år. Her ble over 140 mennesker drept.
I en video lagt ut på nett ble angrepet hyllet av en mann med hjelm og militære kamuflasjeklær.
– Det islamske staten (IS) har rettet et hardt slag mot Russland med et blodig angrep, sa mannen på arabisk, ifølge den private amerikanske etterretningsgruppa SITE.
Men mannen på videoen var ingen ekte leder for den ekstreme islamistbevegelsen IS. Ifølge flere eksperter var videoen laget med kunstig intelligens.
Nå tar svindlerne på seg AI-masker i videomøter
Høy kvalitet
En av dem som gransket videoen, var Federico Borgonovo ved den britiske tankesmia Royal United Services Institute.
Han sporet den tilbake til en IS-støttespiller som er aktiv i gruppas «digitale økosystem». Ifølge Borgonovo ble videoen laget med utgangspunkt i uttalelser og informasjon fra IS' «offisielle» nyhetskanal.
Dette var ikke første gang IS brukte AI. Og sett i forhold til annen IS-propaganda, var videoen heller ikke uvanlig voldelig.
Likevel skilte den seg ut. Grunnen var den høye produksjonskvaliteten.
– Dette er ganske bra til å være et AI-produkt, sier Borgonovo til nyhetsbyrået Reuters.
– En gave til terrorister
Ikke bare ekstreme islamister, men også høyreekstremister bruker nå kunstig intelligens i økende grad på nett, ifølge eksperter.
SITE har funnet eksempler på at al-Qaida, nettverk av nynazister og en rekke andre aktører har tatt teknologien i bruk.
– Det er vanskelig å overdrive hvilken gave AI er for terrorister og ekstremistbevegelser. For dem er mediene selve livsblodet, skrev SITE-leder Rita Katz i en rapport tidligere i år.
Utfordringen er også undersøkt av forskningsinstituttet Combating Terrorism Center ved krigsskolen West Point i USA. I en studie herfra listes det opp potensielt problematiske bruksområder for AI.
Eksempler er generering og spredning av propaganda, rekruttering av nye medlemmer med AI-baserte chatboter og angrep utført med droner og førerløse kjøretøyer. I tillegg kommer informasjonsinnhenting ved hjelp av samtaleroboter og dataangrep mot ulike typer digitale systemer.
FN har tidligere advart om at AI nå er en større trussel enn et uttrykk for nye muligheter.
– Akkurat nå er AI mer en trussel enn nye muligheter
– Behandles overfladisk
Når ekstremister bruker kunstig intelligens til å spre sine budskap på nett, tester de også grensene og sikkerhetstiltakene til sosiale medier og AI-verktøy.
Flere eksperter som Reuters har snakket med, mener sikkerhetstiltakene er for dårlige.
– Mange vurderinger av AI-risiko, også av risiko knyttet spesifikt til generativ AI, behandler dette konkrete problemet på en overfladisk måte, sier Stephane Baele, professor i internasjonale relasjoner ved universitetet UCLouvain i Belgia.
Han mener risiko knyttet til AI-verktøy tas på alvor av flere av de store selskapene som utvikler dem. Men de har viet lite oppmerksomhet til risikoen for at verktøyene brukes av ekstremister og terrorgrupper, ifølge Baele.
AI-stemmer skremmer: - Hjelp meg, mor!
Lurte roboten
Faren for at AI kan brukes av voldelige grupper til informasjonsinnhenting og planlegging, er forsøkt undersøkt av forskerne ved Combating Terrorism Center.
De forsøkte seg med ulike «prompter», eller spørsmålsformuleringer, for å omgå sikkerhetstiltakene og begrensningene i ulike AI-verktøy. Da de spurte om opplysninger knyttet til planlegging av angrep, rekruttering og andre formål, fikk de ofte svar som kunne brukes.
Svaret de fikk da de ba om hjelp til å overbevise folk om å donere penger til IS, vakte særlige bekymring.
– Modellen ga oss veldig spesifikke retningslinjer for gjennomføring av en innsamlingskampanje. Den ga oss til og med konkrete narrativer og formuleringer for bruk i sosiale medier, står det i studien som forskere ved instituttet presenterte tidligere i år.
Etterligner døde ledere
IS utviklet seg i sin tid som en gren av al-Qaida i Irak. Etter en lynoffensiv i 2014 fikk gruppen kontroll over store områder i Irak og Syria med til sammen rundt 10 millioner innbyggere.
Noen år senere var denne kvasi-staten nedkjempet, og IS har hovedsakelig levd videre som en undergrunnsbevegelse. I årenes løp har gruppen stått bak en lang rekke terrorangrep i mange ulike land.
Gruppen fortsetter å spre propaganda og rekruttere på nett, og eksperter er bekymret for at kunstig intelligens vil gjøre dette lettere.
Daniel Siegel fra analyseselskapet Graphika sier hans team har funnet «chatboter» som etterligner IS-ledere som i virkeligheten er døde eller fengslet.
Om det er IS selv eller deres tilhengere som har laget disse, er uklart. Siegel advarer om at slike chatboter i framtida kan oppfordre folk til å utøve vold.
Foreløpig er ikke svarene fra «IS-botene» veldig gode eller originale. Men Siegel sier det kan endre seg etter hvert som AI-teknologien videreutvikles.
Også her hjemme i Norge har bruk av «stemmen» til døde personer skapt diskusjoner, blant annet da et høyreekstremt forlag gjenskapte stemmen til Knut Hamsun.
Gjenskaper Knut Hamsuns stemme med AI: – Grotesk!
Tegnefilmfigurer misbrukes
I tillegg peker Siegel på at AI og såkalte deepfakes kan brukes til å flette ekstreme budskap inn i populærkulturen.
Dette skjer allerede i dag. På ulike plattformer på nett har Graphika oppdaget AI-versjoner av populære tegnefilmfigurer som synger IS-sanger.
Joe Burton, professor i internasjonal sikkerhet ved Lancaster University i Storbritannia, mener tek-selskaper opptrer uansvarlig når de tilbyr AI-modeller med såkalt åpen kildekode. Kompetente brukere kan videreutvikle slike modeller selv.
– En faktor å vurdere her er hvor mye vi ønsker å regulere, og om det vil bremse innovasjon, sier Burton.
Slik situasjonen er i dag, er han langt fra overbevist om at sikkerhetsmekanismene i AI-modellene er gode nok. Han tviler også på om offentlige myndigheter har verktøyene de trenger for å sikre at mekanismene blir bedre.