출처 : https://www.zendesk.kr/blog/machine-learning-and-deep-learning/
Objective 본 연구는 음원 데이터 분류를 위한 딥러닝 모델을 활용해 초급 및 중급 전자 기타 연주자들에게 도움이 될 수 있는 전자 기타 이펙터 자동 분류 시스템을 제안한다.
Background 이펙터는 전자 기타에 연결해 음의 파형에 변화를 주어 소리를 변조시키는 장치이다. 시중에는 다양한 종류의 이펙터가 존재하고 같은 종류의 이펙터라 하더라도 변조의 정도가 다르다는 점 때문에 대부분의 초/중급 연주자에게는 많은 비용과 시간을 들여 이펙터를 구매하고 기능과 조합을 학습해야 한다는 어려움이 존재한다.
Method 이펙터를 Filter, Time, Drive, Modulation 총 4가지 계열로 분류한 뒤, Filter계열은 wah. Time계열은 reverb, delay. Drive계열은 overdrive, distortion, fuzz. Modulation계열은 chorus, phaser, flanger, tremolo로 총 11개의 이펙터를 선정했다. 학습 및 실험에 사용하기 위한 음원 데이터는 Sonar사의 Cakewalk DAW와 TH3 전자 기타 VSTi를 활용해 수집했다. 데이터 세트는 0옥타브 도부터 3옥타브 도까지 22개의 단일음을 4초씩 연주한 44K 단음 데이터와 약 8분 45초 길이의 Canon Rock 연주음 데이터를 4초씩 분할한 44K 복합음 데이터로 구성되어 있다. 데이터 전처리를 수행한 후, 2640개의 각 계열별 단일음 샘플과 15720개의 복합음 샘플, 총 18360개의 샘플을 계열별 이펙터 분류 모델 훈련에 사용하였다.