음악은 세계 공통어로 불릴만큼 문화적 보편 요소죠. 그렇다면 어떻게 다양한 문화권의 환경 차이에도 불구하고, ‘음악적 본능’은 어느 정도 공유될 수 있는 것일까요?
KAIST 물리학과 정하웅 교수 연구팀이 인공신경망 모델을 활용해, 사람 뇌에서 특별한 학습 없이도 음악 본능이 나타날 수 있는 원리를 규명했습니다.
기존 학자들은 다양한 문화권에 존재하는 음악의 보편성과 차별성을 규명하고, 어떻게 이런 공통성이 나타날 수 있는지에 대해 이해하고자 시도해 왔습니다. 2019년 세계적인 과학 저널 ‘사이언스’에 게재된 연구를 통해 민족지학적으로 구분된 모든 문화에서 음악을 만들어 내고, 유사한 형태의 박자와 멜로디가 사용된다는 것이 발견됐습니다. 또한, 신경과학자들은 우리 뇌의 청각 피질(Auditory cortex)에 음악 정보처리를 담당하는 특정한 영역이 존재한다는 것을 밝혀냈습니다.
연구팀은 인공신경망을 사용해, 음악에 대한 학습 없이도 자연에 대한 소리 정보 학습을 통해 음악 인지 기능이 자발적으로 형성됨을 보였는데요. 연구팀은 구글에서 제공하는 대규모 소리 데이터(AudioSet)를 활용해, 인공신경망이 이러한 다양한 소리 데이터를 인식하도록 학습했습니다. 흥미롭게도, 연구팀은 네트워크 모델 내에 음악에 선택적으로 반응하는 뉴런(신경계의 단위)이 발생함을 발견했습니다. 즉, 사람의 말(speech), 동물 소리, 환경 소리, 기계 소리 등의 다양한 소리에는 거의 반응을 보이지 않으나 기악이나 성악 등 다양한 음악에 대해서는 높은 반응을 보이는 뉴런들이 자발적으로 형성된 것입니다.
이 인공신경망 뉴런들은 실제 뇌의 음악정보처리 영역의 뉴런들과 유사한 반응 성질을 보였습니다. 예를 들어, 인공 뉴런은 음악을 시간적으로 잘게 나누어 재배열한 소리에 대해 감소된 반응을 보였습니다. 이는 자발적으로 나타난 음악 선택성 뉴런들이 음악의 시간적 구조를 부호화하고 있음을 의미하죠. 이러한 성질은 특정 장르의 음악에만 국한된 것이 아니라, 클래식, 팝, 락, 재즈, 전자음악 등 25개에 달하는 다양한 장르 각각에 대해서도 공통적으로 나타났습니다.
심지어, 네트워크에서 음악 선택성 뉴런의 활동을 억제하게 되면, 다른 자연 소리에 대한 인식 정확도를 크게 떨어뜨릴 수 있음이 나타났습니다. 즉, 음악 정보처리 기능이 다른 자연 소리 정보처리에 도움을 주며, 따라서 ‘음악성’이란 자연 소리를 처리하기 위한 진화적 적응에 의해 형성되는 본능일 수 있다는 설명입니다.
연구를 주도한 정하웅 교수는 “이러한 결과는 다양한 문화권에서 음악 정보처리의 공통된 기저를 형성하는데, 자연 소리 정보처리를 위한 진화적 압력이 기여했을 수 있음을 시사한다”며, “사람과 유사한 음악성을 인공적으로 구현하여, 음악 생성 AI, 음악 치료, 음악 인지 연구 등에 원천 모델로 활용될 수 있을 것으로 기대한다”고 연구의 의의를 설명했습니다. 그러나 “현 연구는 음악 학습에 의한 발달 과정을 고려하고 있지 않으며, 발달 초기의 기초적인 음악 정보처리에 대한 논의임을 주의해야 한다”고 연구의 한계를 덧붙였습니다.
연구 결과는 국제 학술지 ‘네이처 커뮤니케이션즈(Nature Communications)’에 출판됐다.
논문명: Spontaneous emergence of rudimentary music detectors in deep neural networks