09.05.2018 / aktualisiert am: 15.05.2018

Hirn beim Musikhören dekodiert

Einer brasilianischen Forschungsgruppe ist es gelungen, mittels der Hirnaktivität ihrer Testpersonenherauszufinden, welches Musikstück sie sich gerade anhören.

Die Gedanken einer Person per Computer lesen: Was wie Science-Fiction tönt, ist vielleicht bald schon Realität.

Forschenden gelang es bereits, anhand von gemessenen Hirnaktivitäten zu rekonstruieren, was eine Person sagt. Und indem Neurowissenschaftler die Aktivität des Sehzentrums im Gehirn aufzeichnen, können sie herausfinden, welche Filmszenen sich ihre Testpersonen gerade ansehen.

Nun ist es erstmals gelungen, die "musikalischen Gedanken" zu erfassen. Ein Team um den brasilianischen Forscher Sebastian Hoefle entwickelte eine Technologie, mit der ein Computer erkennen kann, welches Musikstück sich jemand gerade anhört. In einem ersten Teil des Experiments wurde die Hirnaktivität von sechs Testpersonen mittels funktioneller Magnetresonanztomografie (fMRT) gemessen, während sie sich über zwei Stunden lang 40 Musikstücke anhörten.

Die musikalische Auswahl umfasste Klassik, Rock, Pop, Jazz und Folk. Der Computer erfasste die Gehirnaktivität, die jedes der Stücke hervorrief, und wie sie sich während des Anhörens der verschiedenen Songs veränderte. Im zweiten Teil begann das Lesen im Gehirn, das sogenannte brain decoding. Der Computer musste anhand der gemessenen Hirnaktivität erkennen, welches von zwei zur Auswahl stehenden Musikstücken sich die Probandinnen und Probanden anhörten. Die Testpersonen hatten die beiden Stücke zuvor noch nicht gehört.

Die Trefferquote war besser, als die Forschenden erwartet hatten: Bei vier Testpersonen lag sie bei 70 bis 78 Prozent, bei den restlichen beiden sogar bei 84 respektive 85 Prozent. Im Anschluss loteten die Forschenden die Grenzen der Technologie aus: Den Testpersonen wurde eines von zehn zuvor nicht gehörten Musikstücken vorgespielt. Der Computer musste nun statt aus zwei aus zehn Optionen den korrekten Song erkennen. Die Trefferquote war mit 74 Prozent ähnlich gut.

Gemäss den Forschenden könne dank der Studie die auditive Wahrnehmung, also das, was im Hirn passiert, wenn musikalische Informationen auf das Hörzentrum treffen, besser verstanden werden. Maschinen könnten künftig unsere musikalischen Gedanken in Songs übersetzen, zeigt sich Sebastian Hoefle überzeugt.

 

Hoefle, S., Engel, A., Basilio, R. Alluri, V., Toiviainen, P., Cagy, M., & Mol, J. (2018). Identifying musical pieces from fMRI data using encoding and decoding models. Scientific Reports, 8(1). doi:10.1038/s41598- 018-20732-3