로봇이 사람 몸짓 보고 따라 배운다

박수형 기자 입력 2018. 5. 22. 09:18 수정 2018. 5. 22. 09:21
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

사람의 동작을 보고 배우는 인공지능(AI) 로봇이 나올 전망이다.

미리 입력된 알고리듬 값에 기계적으로 움직일 수 있는 범위 내에서 작동하는 것이 아니라 사람의 몸짓을 시각적으로 이해하고 이를 따라할 수 있는 수준의 AI 연구가 진행되고 있어서다.

로봇이 사람의 몸짓을 보고 따라하는 학습 과정을 통해 인간과 로봇의 커뮤니케이션은 물론 협동도 가능할 것이라는 게 논문의 주요 내용이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

엔비디아, 인간동작 학습 AI로봇 개발

(지디넷코리아=박수형 기자)사람의 동작을 보고 배우는 인공지능(AI) 로봇이 나올 전망이다.

미리 입력된 알고리듬 값에 기계적으로 움직일 수 있는 범위 내에서 작동하는 것이 아니라 사람의 몸짓을 시각적으로 이해하고 이를 따라할 수 있는 수준의 AI 연구가 진행되고 있어서다.

21일(현지시간) 미국 지디넷닷컴에 따르면 엔비디아는 호주 브리즈번에서 열릴 예정인 컨퍼런스에서 이같은 내용이 담긴 논문을 발표할 예정이다.

로봇이 사람의 몸짓을 보고 따라하는 학습 과정을 통해 인간과 로봇의 커뮤니케이션은 물론 협동도 가능할 것이라는 게 논문의 주요 내용이다.

논문 저자는 해당 로봇의 신경망 회로로 엔비디아의 타이탄 X GPU가 쓰였다고 설명했다.

로봇은 카메라와 같은 시각 정보를 받아들인 뒤 사람과 같은 객체의 움직임을 시나리오에 따라 분석하게 된다.

이후 신경망 회로를 통해 어떤 방식으로 해당 동작을 따라할지 분석하고, 로봇 동체가 최대한 비슷한 움직임을 따라하는 식이다.

엔비디아는 로봇이 시각 정보 중심의 접근을 통해 인공적 데이터를 만들어내는 첫 사례라고 소개했다.

박수형 기자(psooh@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?