På deres egne nettsider sier Google at deres AI-chatbot Bard kan "forklare deg koden din, linje for linje".
Men kilder i Google forteller til Reuters at giganten nå advarer sine egne utviklere om å bruke deres egen ChatGPT-konkurrent.
For det første skal Google advare dem mot å mate Bard med egen kode, i frykt for at hemmeligheter skal lekke ut gjennom tjenesten.
For det andre skal Google også advare mot å bruke koden chatboten spytter ut, da den ikke alltid er til å stole på.
Fare for lekkasje
Som også norske utviklere er bevisst på, er det en fare ved å mate chatboter med egen kode: AI-modellene bruker alt de kan komme over til å trene seg selv, inkludert det folk skriver direkte til dem, og dermed blir det en fare for at intern og potensielt hemmelig data lekkes til andre.
Nå kan du bruke GPT på en helt ny måte
Dette er ikke bare noe Google sier til egne utviklere - ifølge Reuters ble Bards personvernsinformasjon oppdatert 1. juni med blant annet setningen:
"Don’t include confidential or sensitive information in your Bard conversations."
Dette er også mye av grunnen til at mange selskaper nekter sine utviklere å bruke slike verktøy, blant annet giganter som Samsung, Amazon, Deutsche Bank og, ifølge Reuters, Apple.
Fare for dårlig kode
Den andre grunnen til at Google-utviklere advares mot å bruke Bard, er kvaliteten på koden den skriver.
Til Reuters sier Google at Bard kan komme med "uønska kodeforslag".
Vi bruker AI, men stoler ikke på den
Alt dette skjer altså samtidig som Google forsøker å markedsføre Bard som en konkurrent i AI-landskapet som mange utviklere nå bruker til å hjelpe seg i arbeidshverdagen.
Men Google hevder overfor Reuters at Bard uansett kan hjelpe utviklere, om enn ikke så direkte som man kanskje kunne ønske, og at de prøver å være åpne om dette til brukerner sine.