[뉴스토마토 권익도 기자] 'AI(인공지능) 음악'이 보편화될 것이란 전망은 일찌감치 나왔으나, 최근 점차 구체적인 결과물들이 쏟아지는 분위기입니다. 국내 최초로 로봇 지휘자가 데뷔하고, AI 기술로 창작 문턱이 낮아질 것이란 전망이 나옵니다.
30일 오후 7시 30분 서울 중구 국립극장 해오름극장에서 열린 ‘관현악시리즈IV 부재(不在)’ 공연에서는 상반신만 인간형인 로봇 ‘에버6′가 인간 지휘자 최수열과 번갈아 지휘합니다. 로봇이 오케스트라를 지휘하는 국내 공연은 이번이 처음입니다. 지난 1년간 로봇을 제작한 한국생산기술연구원은 에버6에게 실제 인간 지휘자의 움직임을 학습시켰습니다. 일본 아시모(2008년), 알터2(2018)와 알터3(2020), 스위스의 유미(2017) 등 해외에선 일찍이 데뷔한 로봇 지휘자들이 있습니다.
이번 공연의 핵심 관전 포인트는 '로봇 지휘자의 정확한 박자 파악과 인간 지휘자의 즉흥적인 감각 조율이 어우러질 수 있는지'입니다. 로봇과 인간의 합동 지휘를 위한 협연곡 '감'을 만든 손일훈 작곡가에 따르면, 오선지 악보 없이 오직 말로만 연주자, 지휘자에게 12분 길이의 곡 형식을 전달했다고 합니다. 다만 풀어야할 숙제는 존재합니다. 최수열 지휘자는 "지휘봉을 휘두르거나 박자를 세는 비팅(beating) 동작 때 팔과 손목 관절을 인간처럼 섬세하게 써 놀라웠다. 나노 단위의 박자를 정확히 맞추는 로봇의 지휘는 그러나 인간 고유의 연주 호흡에 어긋나 불편함을 느끼게 했다"고 합니다.
로봇 지휘자 '에버6'가 서울 중구 국립극장 해오름극장 연습실에서 국립국악관현악단 관현악시리즈Ⅳ '부재(不在)' 연주 시연을 하고 있는 모습. 사진=뉴시스
대중음악 분야에서도 AI의 음악적 진보는 구체화되고 있습니다. 최근 방탄소년단(BTS) 소속사 하이브는 AI 프로젝트 ‘미드낫’을 발표해 페스티벌 출연까지 진행 중입니다. 미드낫은 17년 차 가수 이현에 AI 기술을 접목한 프로젝트. 아티스트가 가창한 발음을 세계 80억 인구가 사용하는 6개 언어로 교정하고, 심지어는 보이스 디자이닝 기술을 활용해 여성 보이스까지 제작해 내놨습니다. 페스티벌 라이브 구현도 가능합니다.
김형석 작곡가는 최근 지니뮤직과 AI 악보 기반 편곡 서비스 '지니리라'를 발표했습니다. 사진을 보정하는 '포토샵' 프로그램처럼 창작자들의 예제 음악을 AI가 작곡 완성을 하는 시스템. 김 작곡가는 "창작자의 문턱이 낮아지고 전 국민이 작곡하는 시대를 꿈꿔볼 수도 있을 것”이라 했습니다.
그룹 방탄소년단(BTS)을 발굴한 17년 차 가수 이현(40)의 음악에 AI 기술을 접목한 프로젝트 ‘미드낫’. 사진=하이브
세계적으로도 AI와 음악 간 관계에 대한 정립과 새로운 창작물에 대한 실험과 논의는 점차 구체화되는 중입니다. 최근 세기의 밴드 비틀스의 폴 매카트니는 AI의 도움을 받아 '비틀스 마지막 기록'을 내놓을 계획 밝히기도 했습니다. 과거 데모 테이프로부터 AI기술을 활용해 존 레논의 목소리를 추출하고, 이를 재녹음해 연내 선보이겠다는 계획입니다. 다만, 아직까지 AI 음악을 진정한 창작의 영역으로 볼 수 있느냐에 대해선 의견이 갈립니다. 세계 최고 권위 음악 시상식 '그래미어워즈'는 최근 AI로만 만든 음악에 수상 기준 부적격 불가 판단을 내렸습니다. 국내는 아직 관련 사안들에 대한 논의는 없으나, 이번 그래미가 내놓은 기준을 토대로 관련 논의가 나올 것이란 의견들이 지배적입니다.
비틀스 폴 매카트니. 사진=AP·뉴시스
권익도 기자 ikdokwon@etomato.com
이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 김기성 편집국장이 최종 확인·수정했습니다.
ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지