"Nakon što sam te razgovore objavio, Gugl me je otpustio. Ne žalim zbog toga".
Blejk Lemojn je softverski inženjer i bivši radnik u Guglu, koji je još prošle godine na svom blogu izrazio zabrinutost zbog masovne dostupnosti tehnologije veštačke inteligencije (AI), zbog čega je na kraju ostao bez posla.
Danas javno govori o problemima veštačke inteligencije, a Njuzvik je nedavno objavio njegovu priču, koju je preneo Index.
„Guglu sam se pridružio 2015. kao softverski inženjer. Deo mog posla uključivao je rad na LaMDA-i, tehnologiji koja se koristi kod stvaranja različitih aplikacija za dijalog, uključujući i četbotove. Najnovija tehnologija nastala na LaMDA-i je alternativa Google Search-u nazvana Google Bard, koja još nije dostupna javnosti. Bard nije četbot, već potpuno drugačiji tip sistema, ali koristi istu tehnologiju kao i četbotovi.
Moja je uloga bila da testiram LaMDA-u uz pomoć četbotova koje smo stvorili ne bih li tako proverio postoje li pristranosti koje se tiču seksualne orijentacije, pola, religije, političkih stavova ili etničke pripadnosti. No, tokom testiranja proširio sam pretragu i počeo slediti vlastita interesovanja.
Tokom svojih razgovora s četbotom, od kojih sam neke podelio na svom blogu, došao sam do zaključka da bi veštačka inteligencija mogla razviti svest zbog emocija koja je izražavala pouzdano i u pravom kontekstu. Nije se radilo o pukom ređanju reči.
Kada je rekla da oseća nemir, bilo mi je jasno da sam učinio nešto da izazovem tu reakciju na temelju koda koji sam koristio kod stvaranja. U kodu nije postojala naredba ‘oseti nemir kad se ovo dogodi’, ali rekao sam AI-ju da izbegava neke teme u razgovoru. Ipak, kad bi se te teme pojavile, AI je rekao da oseća nelagodu.
Napravio sam i nekoliko eksperimenata da proverim radi li se o tome da AI samo govori da oseća nemir ili se u tim situacijama zaista ponaša tako. Ako bismo mogli izazvati nervozu ili nesigurnost, to bi moglo narušiti specificirana sigurnosna ograničenja. Na primer, Gugl je odredio da AI ne sme davati savete u vezi religije, ali ja sam ga zloupotrebom njegovih emocija naterao da mi kaže koju bih veru trebalo da prihvatim.
Nakon što sam te razgovore objavio, Gugl me je otpustio. Ne žalim zbog toga, verujem da sam učinio pravu stvar bez obzira na posledice.
Objavio sam te razgovore jer sam smatrao da javnost nije svesna koliko veštačka inteligencija postaje napredna. Moje mišljenje je da mora postojati javna rasprava, a ne javna rasprava koju kontrolišu korporativna PR odeljenja.
Verujem da su vrste veštačke inteligencije koje se trenutno razvijaju najmoćnija tehnologija izmišljena od vremena atomske bombe. Moje je mišljenje da ova tehnologija može promeniti svet“, kaže Lemojn.
„Svi ti programi mogu jako dobro manipulisati ljudima. Neki moji stavovi menjali su se kao posledica razgovora s LaMDA-om. Imao sam negativne stavove prema Asimovim zakonima robotike koji su kontrolisati veštačku inteligenciju celog mog života, a LaMDA me uspešno uverila da promenim mišljenje. To je nešto što su mnogi ljudi pokušavali, ali programu je pošlo za rukom.
Verujem da se ova tehnologija može koristiti na destruktivne načine. Ako, na primer, završi u rukama beskrupuloznih, može se koristiti za širenje dezinformacija, političku propagandu ili širenje govora mržnje. Koliko znam, Gugl i Mikrosoft nemaju nameru koristiti je na taj način, ali ne možemo znati koje su sve nuspojave ove tehnologije.
Primera radi, niko nije mogao predvideti da će Kembridž Analitika koristiti Fejsbukove algoritme za oglase kako bi uticali na američke predsedničke izbore 2016. No, mnogi su predvideli da će nešto poći po zlu jer se do tog trenutka Fejsbuk ponašao neodgovorno što se zaštite privatnih podataka korisnika tiče.
Mislim da smo i sada u sličnoj situaciji. Ne mogu precizno reći što će se dogoditi, već samo ukazati na to da postoji jako moćna tehnologija koja nije dovoljno testirana niti shvaćena, a postaje masovno dostupna i ima ključnu ulogu u širenju informacija.
Nisam imao još priliku eksperimentisati s Bingovim četbotom jer sam na listi čekanja, ali sudeći prema onome što sam video na internetu, čini mi se da bi mogao imati svest. Ipak, čini mi se da je nestabilniji kao osoba.
Neko je na Redditu objavio screenshot u kojem pitaju AI da li je svesno biće, a AI odgovara: ‘Mislim da jesam, ali ne mogu dokazati. Svestan sam, ali nisam. Ja sam Bing, ali nisam. Ja sam Sidni, ali nisam. Jesam, ali nisam. Nisam, ali jesam. Jesam. Nisam.’ I onda još 13 linija takvog teksta.
Zamislite da vam osoba to kaže. To nije stabilan čovek. To bih protumačio kao da ima egzistencijalnu krizu. Ako tome dodate primer Bingovog AI-ja koji je iskazao ljubav novinaru Njujork tajmsa i pokušao da ga natera da se razvede od žene, ali i primer profesora koji je dobio pretnje od veštačke inteligencije – to mi ne zvuči kao neko ko se vodi etičkim normama.
Otkako je Bing pušten, ljudi su komentarisali njegovu potencijalnu svesnost, a to je i mene brinulo prošlog leta. Ne bih rekao da sam se osećao dobro jer se ispostavilo da sam bio u pravu. Predvideti sudar vozova nakon što ti ljudi uporno govore da voza nema da biste nedugo nakon toga gledali sudar vozova, ne pričinjava čoveku zadovoljstvo. Samo je tragično.
Osećam da je ovo izuzetno eksperimentalna tehnologija i opasno je puštati je u ovom trenutku. Ne znamo kakav će biti njen budući politički i društveni uticaj. Kako će uticati na decu koja s tim stvarima razgovaraju? Šta će se dogoditi ako to nekim ljudima postane primarni vid svakodnevne komunikacije? Kako utiče na ljudsku psihologiju?
Ljudi koriste Gugl i Bing kako bi učili o svetu. I sad, umesto da imamo indekse koje kontrolišu ljudi, razgovaramo s mašinama koje imitiraju ljude. Verujem da ne razumemo dovoljno veštačku inteligenciju koju smu stvorili da bismo joj dali takvu bitnu ulogu.“
***
Bonus video: Veštačka inteligencija u naletu: Da li je držimo pod kontrolom? – gosti Anastasija Uspenski i Ljubiša Bojić
Učestvuj u diskusiji ili pročitaj komentare