에코랑 리버브를 지우면 더 낫다고 확정지어서 말하시는 분들이 계시는 것 같은데,


음질적으로 보면 맞는 말입니다. 하지만 더 낫다고 말하기에는 무리가 있습니다. 그 이유는 현재 애코랑 리버브를 지우는 기술이 모두 ai 알고리즘을 통해서 하는 것입니다. 이것은 분명 완전하지 않습니다.

보컬이랑 악기를 분리하는 1차적인 작업만 하더라도 보컬 손실이 발생하기 때문에 학습 시 음색이 많이 깎여 나갑니다. 거기다가 디에코랑 디리버브까지 거치게 되면 우리가 듣기에는 더 깔끔해진 목소리라고 들리겠지만 분명 보컬은 큰 손실이 생긴겁니다. 따라서 학습하고 결과물을 들어보면 무미건조하고 음색이 잘 안살아나는겁니다.


예를들어 우리가 그냥 조용한 방에서 반주없이 노래를 불러 녹음하면 깔끔한 보컬만 남기 때문에 그대로 학습에 사용해도 무리가 없겠지요? 그러면 이렇게 학습된 모델은 보컬에 대한 손실이 거의 없다고 볼 수 있습니다. 당연히 음색도 잘 살리고 고음에서도 깔끔한 자연스러운 모델이 만들어지겠죠. 하지만 기타를 치면서 노래를 부르는걸 녹음하면 악기랑 목소리랑 섞일 것 아니겠습니까? 그러면 이제 ai 알고리즘을 통해서 분리하고 그걸 갖다가 학습할텐데, 자 이렇게되면 맨 처음에 그냥 노래만 불러서 녹음한 것과 비교해서 어떠한 모델이 나올까요? 당연히 불완전한 ai 알고리즘을 사용하여 분리하였기 때문에 고음에서 음색이 덜 비슷해지고 먹먹하게 먹히는 느낌도 생기고 전체적인 음질과 음색이 덜 자연스러워 질겁니다. 근데 거기에 에코랑 리버브를 제거하는 ai 알고리즘까지 2차 3차로 거치면 원본의 음색은 얼마나 깎여 나가겠습니까.


제 결론은 완전 심한 에코, 동굴처럼 울려버리는 리버브가 아니라면 그냥 보컬만 분리해서 학습하시라는 겁니다. 훨씬 그 가수의 음색이 살아납니다. 이 모든 이야기들은 인터넷으로 주워들은 이야기들이 아닌 모두 하나하나 경험하면서 배우고 느낀걸 말씀드리는 겁니다. 물론 이렇게 하길 추천드리는 것이고, 에코랑 리버브 제거하셔도 상관없습니다. 오히려 아까 말씀드린대로 음성이 더 깔끔하게 들리긴 할겁니다. 다만, 더 맥없는 목소리가 뽑히겠지요. 이상 뉴비분들이 꼭 읽으셨으면 하는 마음에 긴 글 남겨보았습니다. 화이팅.