[과학TALK] 에바를 아시나요? 인간의 감정 읽는 '소셜 로봇' 눈앞에

김민수 기자 2017. 9. 30. 08:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능(AI) 기술이 접목된 스마트폰이나 스피커는 사람의 말을 알아듣고 적합한 답을 내놓는다. 아침마다 날씨를 알려주고 그날의 스케줄도 브리핑한다. 심지어 우울할 때 들으면 좋은 음악을 선곡해 기분을 달래는 음악을 선사하기도 한다.

현재 개발중인 소셜로봇 ‘에버5’./한국생산기술연구원 제공

AI 기술이 접목된 스마트 기기들은 이처럼 우리 생활 곳곳을 파고들고 있다. 물론 기기들은 사람의 표정을 읽을 수 없다는 한계가 있다. 음성 인식을 중심으로 기능들이 이뤄지기 때문이다. 만일 인간을 닮은 로봇이 지금의 스마트 기기처럼 인간 옆에서 공존하며 사람의 표정만 보고도 그 사람의 감정을 읽어내 적절한 행동을 할 수 있다면 어떨까.

국내 과학자들은 영화에서나 가능할 법한 이같은 상상을 현실로 옮기기 위해 로봇의 표정 생성 기술과 감정 인식 기술을 연구하고 있다. 한국생산기술연구원(이하 생기원) 융합생산기술연구소 로봇그룹 연구진은 딥러닝 기술을 바탕으로 인간과 대화를 나눌뿐만 아니라 감정을 드러내고 감정을 인식하는 ‘소셜 로봇’을 개발중이다.

연구를 진행하고 있는 장인훈 박사는 “감정을 표현하고 읽어내는 소셜 로봇은 치매에 걸린 노인들이나 정서적으로 문제가 있는 아이들이 유용하게 활용할 수 있을 것으로 보인다”며 “지난 4월 개발한 감정인식 기술을 로봇에 적용하기 위한 연구를 하고 있다”고 밝혔다.

◆ 8040장의 사진 데이터로 로봇 표정 풍부하게

2006년부터 로봇 ‘에버(Eve-R)’ 시리즈를 개발하고 있는 연구진은 최근 선보인 ‘에버4’가 좀 더 풍부한 감정을 표정으로 드러낼 수 있도록 하기 위한 연구를 진행중이다. 이를 위해 딥러닝을 활용한 AI에 사람의 얼굴 사진 데이터를 학습시켜 로봇의 얼굴을 구성하는 모터가 자동으로 풍부한 표정을 가질 수 있도록 개발중이다.

얼굴 사진 데이터는 네덜란드의 행동과학연구소가 오픈소스 형태로 개방한 데이터베이스를 활용했다. 네덜란드 행동과학연구소는 67명의 서양인이 행복, 분노, 슬픔, 중립, 놀람 등 8가지 감정을 정면과 측면, 대각선 등 5개의 각도로 촬영한 8040장의 사진 데이터를 확보하고 비영리 연구용으로 데이터를 개방해 놓고 있다.

연구진은 딥러닝을 적용할 수 있는 오픈소스 아키텍처를 이용해 8040장의 데이터를 AI에 학습시킨 뒤 로봇이 단시간 내에 원하는 표정을 만들 수 있도록 했다. 장인훈 박사는 “현재 표정 생성 기술이라고 불리는 이 기술은 사람이 데이터를 입력하지 않아도 로봇이 특정 감정을 가장 정확하게 표정으로 나타낼 수 있다”며 “감정 표현은 매우 주관적인 영역이지만 최대한 객관화시켜 표현할 수 있도록 개발중”이라고 말했다.

연구진이 로봇의 표정 생성 기술을 적용해 보고 있다./생기원 제공

◆ 인간의 표정 보고 감정 읽을 수 있는 기술도 개발

생기원 융합생산기술연구소 로봇그룹은 로봇의 표정을 풍부하게 하는 데서 그치지 않고 로봇이 인간의 표정을 보고 감정을 읽을 수 있는 이른바 ‘감정 인식 기술’도 개발했다. 지난 4월 감정 인식 기술 실험에 성공했으며 현재 개발중인 로봇 시리브 ‘에버5’에 적용한다는 계획이다.

연구진이 개발한 감정 인식 구현 기술은 표정의 특징을 로봇에 입력해 감정을 읽어내는 방법을 뛰어넘은 것으로 평가된다. 기존의 감정인식 기술은 사람이 수동적으로 어떤 감정을 드러낼 때 나타나는 얼굴의 특징을 지정해줬다. 예를 들어 입꼬리나 눈꼬리의 모양에 따라 어떤 감정인지를 계산하는 알고리즘을 적용한 것이다. 입꼬리나 눈꼬리의 모양이 특정 표정의 기준이 되는 것이다.

그러나 연구진은 이 기준을 스스로 정할 수 있도록 딥러닝 알고리즘을 구현했다. 딥러닝 학습을 통해 스스로 표정의 특징을 찾아내게 하고 이를 기준으로 감정을 판단하도록 알고리즘을 만든 것이다.

그는 또 “현재 개발중인 에버5는 딥러닝 기반으로 사람의 감정을 읽고 적절한 표정을 표현하도록 개발해 사람과 자연스럽게 소통하는 수준까지 연구할 계획”이라며 “로봇과 인간이 서로 교감하고 공존할 수 있는 미래를 앞당길 것”이라고 말했다.

- Copyrights ⓒ 조선비즈 & ChosunBiz.com, 무단 전재 및 재배포 금지 -

Copyright © 조선비즈. 무단전재 및 재배포 금지.