Ispitujući moždanu aktivnost osobe, veštačka inteligencija (AI) može proizvesti pesmu koja odgovara žanru, ritmu, raspoloženju i melodiji muzike koju je pojedinac nedavno slušao.
Naučnici su ranije uspevali da prepoznaju samo pojedine zvukove iz moždane aktivnosti, kao što su ljudski govor ili cvrkut ptica. Međutim, do sada nisu pokušavali da rekonstruišu muziku iz moždanih signala.
Kako bi to uspeli, izgradili su sistem „Brain2Music“, zasnovan na veštačkoj inteligenciji, koji kombinuje podatke prikupljene sa skenera mozga, kako bi rekonstruisao zvuk koja podseća na pesme koje je osoba slušala tokom skeniranja.
Naučnici su koristili snimke mozga koji su prethodno prikupljeni tehnikom koja se zove funkcionalna magnetna rezonanca (fMRI), koja inače može da prati protok krvi do mozga, kako bi videli koji regioni su najaktivniji.
Skenovi su prikupljeni od pet učesnika dok su slušali muzičke klipove koji obuhvataju niz žanrova, uključujući bluz, klasiku, kantri, disko, hip-hop, džez i pop.
Koristeći deo podataka ovih podataka, istraživači su prvo obučili AI program da pronađe vezu između karakteristika muzike (instrumenata, žanra, ritma, raspoloženja…) i moždanih signala učesnika. Raspoloženje muzike su definisali koristeći oznake kao što su srećno, tužno, nežno, uzbudljivo, ljuto ili zastrašujuće.
Istraživači su zatim uneli ove podatke u drugi model veštačke inteligencije koji je prethodno razvio Gugl, nazvan MusicLM. Ovaj model je prvobitno razvijen da generiše muziku iz tekstualnih opisa, kao što je „smirujuća melodija violine sa iskrivljenim gitarskim rifom“.
MusicLM je izbacio rezultate koji su zvučali su skoro kao originalni isečci pesama, iako je, kako kažu istraživači, AI neke pesme bolje rekonstruisao od drugih.
„Raspoloženje rekonstruisane muzike je imalo nešto manju podudarnost, oko 60%“, rekao je za Live Science koautor studije Timo Denk, softverski inženjer u Guglu u Švajcarskoj.
Sa druge strane, žanr i melodija u rekonstruisanoj muzici poklapali su se znatno češće nego što su mislili. Od svih žanrova, AI je najtačnije mogao da razlikuje klasičnu muziku, navode u studiji.
Kao što se i očekivalo, tim je otkrio da je slušanje muzike aktiviralo delove mozga koji signale iz ušiju tumače kao zvukove. Izgleda se da je još jedan deo mozga, nazvan lateralni prefrontalni korteks, važan za obradu značenja pesama, ali to treba da se potvrdi daljim istraživanjem, rekao je koautor studije Ju Takagi.
Taj region mozga je važan zato što je uključen u planiranje i rešavanje problema.
Zanimljivo je da su ranije studije otkrile da se aktivnost različitih delova prefrontalnog korteksa dramatično pomera kada ljudi slušaju fristajl (freestyle) rep.
Cilj ovog rada je da se prvenstveno rasvetli kako mozak obrađuje muziku, rekao je Ju Takagi, inače docent računarske neuronauke i veštačke inteligencije na Univerzitetu Osaka u Japanu.
Buduće studije bi mogle da istraže kako mozak obrađuje muziku različitih žanrova ili raspoloženja, dodaje.
Tim se takođe nada da će uspeti da istraži da li veštačka inteligencija može da rekonstruiše muziku koju ljudi zamišljaju, ne samo onu koju zapravo slušaju.
BONUS VIDEO: