Mangfold og generativ AI er en tøff nøtt:
Som kode24 har skrevet om tidligere, kan det være problematisk å for eksempel be om et generert bilde av en snekker, og kun få tilbake bilder av menn, selv om det skulle være slik at det statistisk sett er flere menn enn kvinner som er snekkere.
Nå har det blusset opp masse bråk rundt Google Geminis AI-bilder, som kanskje har gått for langt i motsatt retning:
Folk på blant annet X har vist eksempler på hvordan Gemini genererte blant annet nazisoldater med ulike hudfarger, selv om det neppe var så stort mangfold å spore blant de faktiske soldatene – og USAs "founding fathers" med samme resultat.
This is not good. #googlegemini pic.twitter.com/LFjKbSSaG2
— John L. (@JohnLu0x) February 20, 2024
Saken følges av blant annet The Verge.
Skulle bli bedre
Google gikk først ut og beklaget bilder av blant annet nazister med forskjellige hudfarger under andre verdenskrig.
- Vi jobber med å forbedre slike bilder øyeblikkelig, sa Google Communications på X.
- Geminis AI-bilder genererer en stort spenn av folk. Det er generelt sett en bra ting, for folk rundt hele verden bruker den. Men her bommer den.
We're aware that Gemini is offering inaccuracies in some historical image generation depictions. Here's our statement. pic.twitter.com/RfYXSgRyfz
— Google Communications (@Google_Comms) February 21, 2024
Setter hele greia på pause
Omlag et døgn senere kom Google med en ny melding, denne gangen mer dramatisk.
- Vi jobber med å adressere problemene rundt Geminis bildegenerering, sier Google på X.
- Mens dette pågår, pauser vi generering av folk, og vil relansere en forbedra versjon snart.
We're already working to address recent issues with Gemini's image generation feature. While we do this, we're going to pause the image generation of people and will re-release an improved version soon. https://t.co/SLxYPGoqOZ
— Google Communications (@Google_Comms) February 22, 2024
Så får vi se hvordan Google har takla rabalderet når Gemini igjen setter i gang med å tegne folk for oss.