인공지능은 지금 자동차로 달려간다

김회권 기자 입력 2017. 7. 27. 09:31
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

운전자의 감정 읽는 음성인식 인공지능의 실현도 눈 앞에

언젠가 자동차는 혼자서 달릴지 모른다. 그렇게 되기까지 거쳐야 할 단계 중 하나가 자동차의 일부 기능을 음성으로 조종하는 것이 될 것이다.  

최근 비즈니스 현장에서는 인공지능(AI)이 다양한 서비스에 활용되는데 자동차도 예외가 될 수 없다. 특히 내비게이션이 주 타깃이다. 터치패드를 사용해 주소나 상호명을 입력하는 대신 음성으로 입력하는 방법이다. 카카오가 그런 시도를 하고 있다. 카카오는 최근 AI 음성인식 기술을 현대차에 탑재하기로 했다. 카카오 AI 플랫폼인 카카오I는 오는 9월에 출시될 제네시스 G70에 적용된다. 

일단은 길안내 기능을 제공할 예정이다. 국내 스마트폰의 95% 이상에 설치돼 있는 메신저 앱을 운영하는 카카오는 다른 영역으로 확장을 꾀하고 있다. AI도 그 중 하나다. 자동차에 부착된 음성인식 버튼을 누른 뒤 “길안내, 서울역”이라고 말하면 내비게이션은 서울역으로 가는 최적길을 안내해주도록 돼 있다.

 

자동차 속으로도 AI는 침투 중인데 특히 음성 인식을 활용한 내비게이션이 주 타깃이다. © 사진=Pixabay

 

자동차도 운전자의 성향을 깨우쳐야 하는 시대

일단 안전 때문에라도 음성 인식은 자동차에 필수적인 존재다. 만약 운전 중에 목적지에 다 왔는데 주차장을 찾아야 할 상황이다. 눈과 손은 운전에 매여 있게 된다. 결국 묶이지 않은 음성이 해결책이다. 하지만 지금 자동차는 이런 수준의 문제 해결보다 좀 더 높은 수준의 능력을 요구받고 있다. 여기에 음성 인식 뿐만 아니라 AI가 상호작용을 실현하는 지식 소스가 된다.

어떤 운전자에게는 목적지에서 얼마나 떨어져 있는지, 주변 주차장 요금은 얼마인지 등의 정보가 필요할 수 있다. 사용자마다 다른 질문을 던져도 내비게이션은 최상의 결과를 제공해야 한다. 이를 위해 자동차는 사용자에게 가장 옳은 선택이 무엇인지 학습하는 능력이 필요하고, 사용자의 성향 등을 배워야 한다. 주유소의 가격이 중요한 운전자에게는 “A 주유소는 가깝지만 조금 떨어져 있는 B주유소가 저렴하다”는 안내가 필요하듯 말이다. 

카카오는 이제 막 첫걸음을 뗐지만, 자동차 음성 인식 시장의 강자로 ‘뉘앙스 커뮤니케이션(Nuance Communications)’이라는 기업이 있다. 음성 인식 전문 기업인데 포드를 비롯해 여러 자동차 메이커에 기술을 공급하고 있다. 뉘앙스 커뮤니케이션의 자동차용 AI는 보다 세분화돼 있다. 최적의 주차 공간을 검색하는 ‘​스마트 파킹’​과 최적의 주유소를 검색해주는 ‘​스마트 퓨얼’​, 사용자의 취향을 학습해 나가는 ‘​스마트 POI’​, 자동차에 생기는 문제에 대답해 주는 ‘​스마트 카 매뉴얼’​ 등으로 운전자가 필요한 것들을 쪼개 제공한다. 

영화 ‘그녀’(her)를 보면 인공지능 음성 비서인 사만다가 등장한다. 사만다는 주인공이 무엇을 원하는지, 무엇이 필요한지 예측할 뿐만 아니라, 주인공의 목소리에서 그의 생활이 어떤지, 애정전선은 잘 되고 있는지 캐치할 수 있다. 

지금 자동차용 음성 인식은 이미 사만다처럼 흘러가고 있다. 지난 2월28일부터 스페인 바르셀로나에서 열린 모바일 월드콩그레스(MWC)에서 포드는 이런 계획을 밝혔다. 운전자의 감정을 읽는 음성 인식 기능을 개발 중이라고 말이다. 

 

“2022년 75% 차에 감정 읽는 인공지능 장착할 것”

포드의 음성인식 기술의 방향은 이랬다. “우리는 운전자에 공감하고 자기 일처럼 생각하는 자동차를 개발하려고 한다. 운전자를 유쾌하게 만들기 위해 농담을 하거나, 필요할 때 조언을 하거나, 누군가의 생일을 알려주는 그런 차다.” 

고기능 마이크와 여러 대의 카메라를 품은 자동차가 운전자의 목소리와 표정을 분석한 뒤 스트레스를 받을 땐 즐거운 음악을 제안할 수도 있고, 조용히 침묵해야 할 타이밍도 아는, 그런 자동차가 곧 등장할 수 있다는 얘기다. 

일부 기술은 실제 실용화 단계에 도달해 있다. MIT(매사추세츠 공과대학)의 미디어랩에서 태동한 AI 스타트업인 어펙티바(Affectiva)는 2016년 5월, 1400만 달러의 투자를 받았다. 이 기업은 AI의 딥러닝을 통해 디지털 영상에 비친 인물의 표정에서 감정을 읽는 기술을 개발하는 곳이다.

인공지능이 미리 분류해 놓은 기쁨, 슬픔, 근심, 유쾌, 놀람 등의 표정을 데이터베이스 삼아 사용자의 표정과 일치시키는 방법을 쓰고 있다. 이를 위해 어펙티바는 전 세계 75개국 사람들의 표정이 담긴 425만개의 영상을 수집해 감정에 관한 데이터를 추출했다.

 

AI 스타트업인 어펙티바(Affectiva)는 디지털 영상에 비친 인물의 표정에서 감정을 읽는 기술을 개발하고 있다. © 사진= 유튜브 제공

 

포드는 일단 2022년을 기점으로 잡고 있다. 2022년까지 모든 신차의 90%에 음성 인식 기능을 탑재하고, 75% 정도의 차에는 운전자의 감정을 읽는 음성 인식 기능을 장착하려고 한다, 계획대로만 된다면 곧 자동차의 개인 비서 시대가 열리는 셈이다. 

이처럼 인공지능은 왜 자동차 속으로 들어가려고 할까. 자동차 하나가 거대한 디바이스가 되는 세상이 곧 올 수 있기 때문이다. 자동차가 주변 세계와 네트워크 되는 것이 필수인 때가 곧 오기 때문이다. 만약 자동차의 인공지능이 외부로 확장된다면 운전자는 음성만으로 많은 것을 제어할 수 있게 된다. 운전 중에 쇼핑을 하며 상품을 주문할 수 있고 필요한 뉴스를 들을 수 있으며 인근 레스토랑과 상점에 관한 평판도 수집할 수 있다. 켜 둔 채 나온 거실 조명을 운전하며 끄는 일도 가능하다. 이런 흐름에 카카오나 현대차가 뛰어드는 건 어찌 보면 당연한 일일 수 있다. 

 

김회권 기자 khg@sisajournal.com <저작권자 ⓒ 시사저널, 무단 전재 및 재배포 금지>

Copyright © 시사저널. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?