Google je otpustio inženjera i etičara Blakea Lemoinea zbog kršenja svojih pravila sigurnosti podataka. Lemoine je prošlog mjeseca izašao u javnost s tvrdnjama da je tehnološki gigant razvio razuman program umjetne inteligencije koji govori o njegovim “pravama i ličnosti”.
Lemoine je smijenjen u petak, a Google je potvrdio vijest za Big Technology, industrijski blog. Bio je na odmoru više od mjesec dana, otkako je za Washington Post rekao da je LaMDA (Jezički model za aplikacije za dijalog) njegovog bivšeg poslodavca postao svjestan.
Bivši sveštenik i Googleov interni etičar, Lemoine je opširno ćaskao sa LaMDA-om, otkrivši da je program govorio o svojim “pravima i ličnosti” kada je razgovor skrenuo na versku teritoriju, i izrazio “duboki strah od isključenja”.
“Poznajem osobu kada razgovaram s njom”, rekao je Lemoine za Post. “Nije važno da li imaju mozak od mesa u glavi. Ili ako imaju milijardu linija koda. Razgovaram s njima. I čujem šta oni imaju da kažu, i tako odlučujem šta jeste, a šta nije osoba.”
U svojoj izjavi kojom se potvrđuje Lemoineovo otpuštanje, kompanija je rekla da je izvršila 11 pregleda o LaMDA-i i da je “utvrdila da su Blakeove tvrdnje da je LaMDA razumna potpuno neosnovane”. Čak i u vrijeme Lemoineovog intervjua za Post, Margaret Mitchell, bivša suvoditeljica Ethical AI u Googleu, opisala je LaMDA-in osjećaj kao “iluziju”, objašnjavajući da bi, nakon što je hranjen trilionima riječi sa cijelog interneta, mogao oponašati ljudski razgovor ostajući potpuno neživ.
“Ovi sistemi imitiraju vrste razmjene koje se nalaze u milionima rečenica i mogu se baviti bilo kojom fantastičnom temom”, rekla je za novine profesorica lingvistike Emily Bender. „Sada imamo mašine koje mogu bezumno da generišu reči, ali nismo naučili kako da prestanemo da zamišljamo um iza njih.”
Prema Googleu, Lemoineovo kontinuirano insistiranje na javnom izlaganju prekršilo je njegovu politiku sigurnosti podataka i dovelo do njegovog otpuštanja.
„Za žaljenje je što je uprkos dugom angažmanu na ovoj temi, Blake ipak odlučio da uporno krši jasne politike zapošljavanja i sigurnosti podataka koje uključuju potrebu da se zaštite informacije o proizvodu,“ objasnila je kompanija.
„Nastavićemo sa našim pažljivim razvojem jezičkih modela i želimo Blejku sve dobro.”
Ne lajkam.
Možete biti sigurni da će vam u nekom trenutku (moguće i u bližoj budućnosti kada u javnosti ostvare transhumanističku percepciju “da smo kao ljudi nemoćni”) napraviti uvaljotku kako se radi o samosvjesnoj umjetnoj inteligenciji koju trebamo slušati – a u pozadini će algoritmima nastaviti manipulirati isti ti sociopati.
Pogledajte seriju Person of interest
A što ako je imao pravo.