구글 AI, 소리·스케치도 학습.."예술가 위한 영역 확장"

김범수 기자 입력 2017. 6. 25. 09:42
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

구글 인공지능(AI)이 소리를 학습해 해당 소리를 디지털로 그대로 재현하는 것은 물론, 다양한 소리를 혼합해서 새로운 소리를 만들 수 있게 진화하고 있다.

단순히 녹음한 음원 데이터를 그대로 재생하는 것이 아니라 소리의 디지털 정보를 학습하고 그대로 재현하기 때문에 '녹음'과 '저장'이 필요 없다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

구글 인공지능(AI)이 소리를 학습해 해당 소리를 디지털로 그대로 재현하는 것은 물론, 다양한 소리를 혼합해서 새로운 소리를 만들 수 있게 진화하고 있다. 단순히 녹음한 음원 데이터를 그대로 재생하는 것이 아니라 소리의 디지털 정보를 학습하고 그대로 재현하기 때문에 ‘녹음’과 ‘저장’이 필요 없다.

더글라스 에크(Douglas Eck) 구글 리서치 사이언티스트. /구글 제공

사람이 그림을 그리는 방법도 학습해 사용자가 그리려는 것이 무엇인지 사전에 파악하고 다음에 그릴 것을 먼저 알려주거나 사소한 오류를 자동으로 수정해주는 보조 역할도 할 수 있게 됐다.

지난 22일 구글 코리아는 서울 강남구 대치동 구글 캠퍼스에서 ‘구글 AI 포럼’을 열고 ‘AI 혁신, 그리고 아트&뮤직’을 주제로 구글의 ‘마젠타 프로젝트’를 소개했다.

이 프로젝트는 구글 브레인팀과 알파고로 유명한 딥마인드팀이 협업해 연구를 하고 있다. 예술 창작 분야에서 활용될 인공지능을 발전시키기 위한 프로젝트로 예술가, 코딩 기술자, 머신러닝 연구자로 이뤄진 커뮤니티를 구축하는 것도 목표다.

마젠타 프로젝트를 통해 만들어진 신경 오디오 합성 기술인 엔신스(Nsynth)는 소리를 디지털로 분석해 학습하고 이를 재생한다. 창작자가 음색과 강약을 제어하고 사람의 손으로 만들기 어려운 새로운 소리를 만들 수 있다. 소리 자료실이라고 할 수 있는 ‘엔신스 데이터세트’에는 1000가지 악기 소리를 포함해 소리데이터 30만개가 담겨있다.

구글은 최근 일상 사물을 스케치하는 생성 네트워크 ‘순환신경망(RNN)’도 공개했다. 순환신경망의 목표는 기계가 인간과 유사한 방식으로 추상적 개념을 그려내고 일반화할 수 있도록 학습시키는 것이다.

마젠타 프로젝트는 이 순환신경망을 활용해 AI에게 손으로 그린 스케치 데이터를 학습시켰다. AI는 스케치 데이터를 학습해 사용자가 스케치할 때 손을 어느 방향으로 움직이고, 언제 그리기를 멈추는지 등 움직임도 같이 학습했다.

가령 빗방울을 그리면 학습된 모델은 그림 안에 다른 빗줄기를 채워나가기 시작한다. 또는 구름을 그리고 빗방울 하나 그리면 나머지 빗방울 채우는 식이다. 이미 학습된 빗줄기 그림에 기반을 둬 빗줄기 그림을 그린 것이다.

이를 기반으로 사용자가 간단하게 돼지를 그리거나, 요가 동작을 그리면 AI는 이 개념을 떠올려 비슷한 그림을 여러 장 추천해준다. 구글은 이런 과정이 예술가들의 창작 과정을 도울 수 있다고 내다봤다.

이 프로젝트를 이끌고 있는 더글라스 에크(Douglas Eck) 구글 리서치 사이언티스트는 “마젠타 프로젝트는 머신러닝을 활용해 음악과 미술 작품을 만들 수 있을까 하는 호기심에서 출발했다”며 “머신러닝을 창작 영역으로 확대하자는 인간의 영감과 재능을 극대화하길 기대한다”고 말했다.

- Copyrights ⓒ 조선비즈 & ChosunBiz.com, 무단 전재 및 재배포 금지 -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?