Dr Vlasta Sikimić, koja radi na Univerzitetu u Tibingenu u Nemačkoj i bavi se odnosom filozofije i veštačke inteligencije, i Aleksandra Vučković s Filozofskog fakulteta u Beogradu autorke su teksta na temu rizika od upotrebe popularne ChatGPT aplikacije. Prenosimo vam ga u celosti.
Internet korisnici su tokom poslednjih meseci u prilici da testiraju beta verziju aplikacije ChatGTP, koja ima za cilj da pruži nešto drugačije iskustvo interakcije sa veštačkom inteligencijom. Ta interakcija je ovaj put u formi dopisivanja – nalik četovanju sa korisničkom podrškom ili naprosto vašim prijateljem kojeg pitate za savet. Dodatna prednost je što dobijate veliki broj informacija u kratkom vremenskom roku. Naravno postoji opravdana sumnja u kvalitet informacija koje se na ovaj način dobijaju.
ChatGPT svoje odgovore generiše samostalno na osnovu podataka koje je naučio sa interneta. Informisaniji korisnici će objasniti da je to zbog toga što je on zasnovan na neuronskoj mreži GPT-3 (treća generacija Generative Pre-trained Transformer-a).
GPT-3 je trenutno najveća neuronska mreža i jedna od retkih koja sa visokim stepenom uspešnosti oponaša prirodan ljudski govor, te se koristi na raznim platformama. Pomenuti novi oblik četovanja tako predstavlja samo mali uvid u daleko impresivnije kapacitete mašinskog učenja koji se usavršavaju iz dana u dan. Poznavanje i imitiranje prirodnog jezika ne samo da korisničko iskustvo četovanja čini prijatnim, već i osposobljava aplikaciju za različite tekstualne i sadržinske forme – od informativnih članaka, pa sve do poezije.
Da li to znači da će ovakve tekstove u budućnosti većinski pisati mašine? Ili da će studenti svoje seminarske radove prepuštati veštačkoj inteligenciji? Čini se da se to još barem neko vreme neće dogoditi.
Širom sveta vode se diskusije o odgovornom uvođenju veštačke inteligencije u obrazovanje, kao i nužnim ograničenjima koja su neophodna kako bi se sačuvao kvalitet obrazovanja i privatnost učenika. Pored toga, treba imati na umu i to da informacije na koje se oslanja GPT-3 mogu biti i pogrešne, naročito ukoliko se tiču slabije istraženih oblasti ili političkih tema koje su obojene različitim pristrasnostima. Takođe, pokazalo se da je Majkrosoftova aplikacija za četovanje na bazi veštačke inteligencije davala asertivne, a pogrešne odgovore, te sada kompanija traži načine da to reši.
Osim platformi za četovanje postoji i veliki broj digitalnih rešenja koja kreiraju ilustracije u zavisnosti od zadate teme. Kombinovanjem GPT-3 tekstualnog sadržaja i ilustracija generisanih putem veštačke inteligencije, neki korisnici su već kreirali čitave ilustrovane knjige za decu. Međutim, da li želimo da algoritmima poverimo pravljenje sadržaja za decu? Zbog upitne originalnosti i kvaliteta ovakvih sadržaja osim autora koji ih potpisuje i koji mora biti čovek, značaj urednika, recenzenata, kao i kritičara književnih dela postaće veći u budućnosti.
Takođe je izrazito važno da prepoznamo stepene rizika od različite upotrebe GPT-3 tehnologije. Na primer, pisanje teksta pesme zabavnog karaktera uz pomoć ChatGPT aplikacije je prilično bezazleno dokle god ima politički korektan jezik. S druge strane, primena medicinskih ili pravnih saveta dobijenih ovom metodom može da dovede do ozbiljnih negativnih posledica. U tom smislu važno je naučiti koje su prednosti, ali i opasnosti od novih tehnologija kojih će u domenu veštačke inteligencije biti sve više.
***
Bonus video: Veštačka inteligencija u naletu: Da li je držimo pod kontrolom? – gosti Anastasija Uspenski i Ljubiša Bojić