Mens noen mener AI-selskapene bør få trene språkmodellene på så mye data som mulig, ønsker andre å begrense tilgangen til opphavsrettslig beskyttet materiale. I Hollywood raser skuespillere mot AI-selskapene, som trygler Trump om å få trene på beskyttet materiale.
Mange velger å prøve å blokkere AI-botene fra å skrape innhold fra nettsidene ved å be pent om det i robots.txt.
Problemet er at mange AI-boter rett og slett gir blaffen i instruksene i robots.txt eller klarer å jobbe seg rundt CAPTCHA-er og annet som er satt opp for å hindre botene i å crawle nettstedet. Dette har Cloudflare sett seg grundig lei av, skriver The Register.
– Vi annonserer AI Labyrinth, en ny metode for å begrense uønsket crawling. Den bruker AI-generert innhold for å forsinke, forvirre og sløse bort ressursene til AI-crawlere og andre roboter som ikke respekterer «no crawl»-direktiver, skriver Cloudflare i et blogginnlegg.
Lurer botene
Cloudflare skriver at hvis man velger å skru på AI-labyrint-funksjonaliteten, så vil Cloudflare automatisk deploye en rekke AI-generte sider som lenker til hverandre.
AI-boter vil automatisk bli sendt til de falske sidene med "AI-søppel" når Cloudflare oppdager bot-aktivitet som ikke er tillatt av nettsidens eier. Innholdet skal være overbevisende nok til at AI-botene går på limpinnen og tror det er ekte.
– Selv om det ser ekte ut, er innholdet ikke det faktiske innholdet av nettsiden vi beskytter, så crawleren kaster bort tid og ressurser.
En ekstra bonus er ifølge Cloudflare at AI Labyrinth fungerer som en neste-generasjon honningfelle.
– Ingen ekte person vil gå fire linker ned i en labyrint av AI-genert nonsens. En besøkende som gjør dette, er høyst sannsynlig en bot. Så dette gir oss et helt nytt verktøy for å identifisere og "fingerprinte" boter, som vi kan legge til en liste over kjente skadelige boter.

Hollywood raser mot AI-gigantene: «Kan betale for seg»
«I stedet for å gi etter og la disse drittsekkene gjøre som de vil, tving dem til å jobbe for det.»
Ikke første gang
Dette er ikke første gang noen har laget "feller" for AI-boter.
For eksempel skrev Ars Technica for en tid tilbake om en anonym utvikler som hadde laget løsningen Nepenthes.
Nepenthes er oppkalt etter det latinske navnet på den kjøttetende planten Kannebærer, som spiser alt som havner på innsiden av den (i virkeligheten stort sett insekter).
Til Ars Technica sier utvikleren at Nepenthes fungerer ved å sende AI-boter inn i en uendelig labyrint av statiske filer uten noen exit-lenker, der de til slutt blir "sittende fast" og gjerne kan holde på å flere måneder. Så snart botene har gått i fellen, vil de bli foret med "søppelinnhold" laget for å "forgifte AI-modeller".
– I stedet for å gi etter og la disse drittsekkene gjøre som de vil, tving dem til å jobbe for det, sier utvikleren.
