Š.M.
Istina je, ispitujući moždanu aktivnost osobe, umjetna inteligencija može proizvesti pjesmu koja odgovara žanru, ritmu, raspoloženju i instrumentaciji glazbe koju je osoba nedavno čula. Naučnici su prethodno “rekonstruirali” druge zvukove iz aktivnosti mozga, poput ljudskog govora ili ptičjeg pjeva, međutim nije poznato da je iko bio uspio stvoriti muziku iz moždanih signala.
No, to je sad uspjelo istraživačima Univerziteta u Osaki i stručnjacima Googlea zahvaljujući umjetnoj inteligenciji zvanoj Brain2Music.
Ona koristi podatke o slikanju mozga za generisanje muzike nalik kratkim isječcima pjesama koje je osoba slušala dok joj je skeniran mozak. Snimke mozga prikupljene su funkcionalnom magnetskom rezonancom (fMRI) koja prati protok krvi bogate kisikom u mozak i otkriva najaktivnija područja. Skenirane snimke prikupljene su od sudionika koji su slušali 15 sekundi duge muzičke isječke različitih žanrova, uključujući blues, klasiku, country, disco, hip-hop, jazz i pop.
Istraživači su prvo uvježbali UI program da pronađe veze između značajki muzike, uključujući instrumente koji se koriste, žanr, ritam i raspoloženje te moždanih signala slušača. Muzičko raspoloženje definirali su istraživači koristeći oznake kao što su sretno, tužno, nježno, uzbudljivo, ljutito ili zastrašujuće.
UI je bio prilagođen svakoj osobi, povezujući njihove jedinstvene obrasce aktivnosti mozga i raznih muzičkih elemenata. Istraživači su zatim te informacije unijeli u model umjetne inteligencije zvan MusicLM koji je Google izvorno razvio za generiranje glazbe iz tekstualnih opisa.
Kako mozak obrađuje glazbu
Istraživači su otkrili da slušanje muzike aktivira regije mozga u primarnom slušnom korteksu, gdje se signali iz ušiju tumače kao zvukovi. Čini se da je za obradu značenja pjesama važna druga regija mozga, lateralni prefrontalni korteks, no to će tek trebati potvrditi daljnjim istraživanjem. Zanimljivo je da je prošla studija, objavljena 2012. u časopisu Scientific Report, otkrila da se aktivnost različitih dijelova prefrontalnog korteksa dramatično mijenja kada reperi slobodno improviziraju svoje stihove. Buduće studije mogle bi istražiti kako mozak obrađuje muziku različitih žanrova ili raspoloženja, kažu istraživači koji bi htjeli istražiti može li umjetna inteligencija rekonstruirati glazbu koju ljudi samo zamišljaju u svojim glavama, umjesto da je stvarno slušaju.