Eks-Google-ansatt med protest: Viser deg alt AI kan lese fra bildene dine

Lanserer tjeneste så du kan teste. I hans egen test ble klokka til kona kobla opp mot islamister.

Googles AI-verktøy skal ifølge selskapet gjøre det lettere for oss å holde orden på bildene våre. Tidligere Google-utvikler Vishnu Mohandas var ikke lenger komfortabel med verken å jobbe for dem, eller lagre bildene hos dem. Nå vil han vise hva AI'en faktisk kan «se». 📸: cottonbro studio
Googles AI-verktøy skal ifølge selskapet gjøre det lettere for oss å holde orden på bildene våre. Tidligere Google-utvikler Vishnu Mohandas var ikke lenger komfortabel med verken å jobbe for dem, eller lagre bildene hos dem. Nå vil han vise hva AI'en faktisk kan «se». 📸: cottonbro studio Vis mer

Indiske Vishnu Mohandas jobbet i en årrekke for Google. Det hele tok slutt etter at han ble kjent med at selskapet i en periode hadde hjulpet det amerikanske forsvaret med å utvikle en AI for analyse av dronebilder.

Etter at han sluttet i jobben i 2020 har han tatt kampen mot Google, ved å lage sin egen betalingstjeneste for lagring og deling av bilder.

Sist måned lanserte han også en nettside som skal vise deg og meg hva Googles AI-modeller kan lære av å studere bildene våre, skriver Wired. Dette er gjort som en stunt for å bruke Googles teknologi mot dem selv.

Samtidig var det nok Mohandas selv, som fikk den største overraskelsen under utviklingen av siden.

Koblet klokke til islamister

Nettsiden Theyseeyourphotos.com lar folk teste med egne bilder, eller eksempelbilder. I retur kommer det en svært presis og detaljert beskrivelse av bildet.

Etter opplastingen blir bildet behandlet med en løsning basert på API'et til Google Vision, med instruks om å «se» og beskrive hva bildet viser.

Mohandas forteller at et av de første bildene han testet, var en selfie sammen med kona og dattera foran et tempel. I beskrivelsen påpekes det at kona har på seg en Casio F-91W-klokke... «som ofte blir assosiert mot islamister».

– Vi måtte justere promptene for å gjøre det litt mindre grusomt, men fortsatt skremmende, sier Mohandas til Wired.

Kommenterer etnisk bakgrunn

Når det samme bildet blir lastet opp på siden i dag, er beskrivelsen mer generisk. Det inkluderer navnet på tempelet, og værforholdene.

AI'en skal fortsatt gjøre flere antakelser basert på hva den «ser», skriver Wired. Den bemerker sannsynlig etnisk og klassebakgrunn, at klærne er egnet til sightseeing og at klokka viser et tidspunkt som matcher metadata for bildet.

Googles talsperson Colin Smith har ikke ønsket å kommentere prosjektet direkte, men henviser til supportsidene. Disse sier at bilder kun blir brukt til å trene AI-modeller, med formål om å hjelpe brukerne holde orden på bildene.

Selskapet sier at bilder lagret i Google Photo verken selges til tredjeparter eller brukes til markedsføring. Det påpekes også at brukere kan skru av analysefunksjonen.