목록Research/Music Generation (3)
숟가락 그만 얹어
신입 사원일 때부터 늘 논문을 쓰고 싶었는데 과제 하느라 바쁘기도 했고 막상 시간이 주어졌을 때는 한 주제에 깊이 몰입하지 못했던 것 같다. 논문이라는 것이 회사 입장에서 어떤 큰 impact가 있겠냐마는 엔지니어에게는 내가 노력한 것을 확실한 형태로 증명하는 수단이고, 내 이야기의 소재가 된다 (가수에게 자작곡이 이런 느낌일까). ISMIR 논문은 곡을 단순히 길게 생성하는 것보다는 의미 있는 단위로 생성하여 quality를 향상시키겠다는 동기에서 시작하였다. 두 번의 reject을 먹고 (처음에는 novelty 부족, 두 번째는 poor writing), 회사에 있는 박사님의 도움을 받고서야 accept 되었다. 생각보다 많은 Music AI 연구자들이 내 연구를 알고 관심을 가져주는 것을 보면 신기..

PreprocessTime-grid based representation: 16-note interval로 quantization을 수행. 결과적으로 한 마디에 16개의 note가 찍힘. Monophony melody의 경우 128 note-on, 1 note-off, 1 rest로 총 130 class로 구성되며 drum의 경우 9개의 북 또는 심벌을 치는 경우의 수 2^9 class로 표현됨. (one-hot vector) Model- Recurrent VAE- Latent vectors can capture the global characteristic of data- Hierarchcal decoder: preventing posterior collapse / generating long-term..

Preprocess Event-based representation: note-on, note-off, time-shift, velocity에 대한 event를 one-hot vector로 표현하여 sequentially 나열한다. Model - Autoregressive LSTM - Input as 413-dimensional one-hot vectors - Teacher forcing for training - Sampling output from beam search 이외에도 music generation에 대한 전반적인 개요를 설명해주는 좋은 논문. References [1] S. Oore et al., This Time with Feeling: Learning Expressive Musical ..