[IF] 인간이 만든 AI.. 왜 그렇게 답했을까

이식 KISTI 융합연구플랫폼개발실장 2017. 10. 14. 03:02
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능 신경과학
- 심층신경망을 연구하다
다양한 데이터 학습 후 스스로 판단 내리지만 중간 과정 알지 못해
입력 데이터 바꾸거나 다른 인공지능 추가해 블랙박스 내부 연구

인공지능(AI) 연구에서 기존 인공신경망의 한계를 극복한 '딥 러닝(deep learning· 심층학습)'이 붐을 일으키고 있다. 딥 러닝은 컴퓨터가 문장이나 이미지, 소리 등의 데이터를 학습한 후 이를 일반화시켜서 상황에 맞춘 정확한 판단을 내릴 수 있도록 구현하는 기술이다. 우수한 인공지능일수록 학습한 데이터의 양이 적어도 올바른 판단을 더 빠른 시간에 내릴 수 있다. 이제 인공지능에 대한 깊은 지식이 없는 연구자도 자신의 과학 연구에 딥 러닝을 쉽게 적용할 수 있게 됐다.

물론 딥 러닝 인공지능이 만능의 열쇠는 아니다. 분명 과학자들이 아직 넘지 못하는 벽이 존재한다. 심층신경망 안에서 일어나는 일이 너무 복잡해서 딥 러닝 인공지능을 만들어낸 인간조차도 인공지능의 의사결정 과정을 정확히 이해할 수 없다. 인간이 인공지능을 만들었지만, 정작 그 인공지능을 이해하지 못하는 우스운 상황이 벌어진 것이다.

개발자들조차 인공지능이 스스로 데이터를 학습해 답을 내놓는 과정을 완전히 이해하지 못한다. ‘인공지능 신경과학’은 인공지능이라는 블랙박스 안을 연구하기 위해 탄생했다./구글 딥마인드 제공

인공지능 안에서 무슨 일이 일어나고 있는지, 어떤 경로로 특정한 결론에 도달한 것인지 제대로 알 수 없으니 인공지능에 대한 두려움이 생기는 것도 당연한 일이다. 혹시 공상과학(SF) 영화에 나오듯 인공지능이 사악한 행동을 지시한다 해도 인간이 알아채지 못하는 상황이 벌어지지 않을까 우려하는 사람들도 많다.

실제로 마이크로소프트가 개발한 실험용 채팅 로봇 '테이(Tay)'의 실패는 인공지능이 제대로 사용되지 못하면 얼마든지 위험한 사태를 초래할 수 있다는 증거이다. 테이가 공개되자마자 불순한 의도를 가진 네티즌들이 모여들어 각종 욕설과 성차별, 인종차별적인 내용을 집중적으로 가르쳤다. 나중에 테이는 인종차별적 발언을 일삼았다. 마이크로소프트는 인공지능의 초기 교육이 매우 중요하다는 쓰디쓴 교훈을 안은 채 16시간 만에 테이 서비스를 중단해야만 했다.

인공지능을 제대로 이해하지 못한 상태에서 실생활에 적용하는 것에 대한 우려도 크다. 유럽연합은 인공지능에 대해 이런 내부 지침을 정했다. '일반 시민에게 크게 영향을 미치는 알고리즘(인공지능)을 채용하는 기업은 그 모델 내부의 논리에 대해서 설명할 수 있어야 한다.' 미국 국방부 산하 방위고등연구계획국(DARPA)은 딥 러닝의 원리를 연구하는 '설명 가능한 인공지능'이라는 분야에 7000만달러(약 790억원)를 지원했다.

과학자들은 예측의 정확성에 대한 집착을 넘어 '인공지능을 어떻게 해석할 수 있는가'라는 문제에 대해 새로이 관심을 기울이고 있다. 인공지능 모델이 옳은가. 학습에 사용된 데이터는 적절했나. 인공지능이 특정한 답을 주는 이유는 무엇일까. 현미경이 발명되면서 세포에 대한 본격적인 연구가 시작된 것처럼, 과학자들은 인공지능의 심층신경망이 어떻게 결정을 내리는지 연구할 수 있는 새로운 도구들을 찾고 있다. 말하자면 인공지능이라는 신비로운 블랙박스 안을 직접 연구하는 것이다. 여기에는 '인공지능 신경과학(AI neuroscience)'이라는 이름이 붙었다.

국제학술지 사이언스지는 최근 인공지능 신경과학의 세 가지 방법론으로 탐침(probe)을 이용하여 외부에서 블랙박스를 연구하는 방법, 블랙박스를 직접 조작하는 방법, 블랙박스를 연구하기 위해 또 다른 인공지능을 사용하는 방법을 소개했다.

첫 번째 방법은 외부에서 인공지능을 연구하는 방법이다. 생화학 연구자들은 유전자 기능이나 단백질 안의 핵심 아미노산을 찾기 위해 인위적으로 유전자 발현을 방해하거나 돌연변이를 일으킨다. 인공지능의 탐침 연구 방법도 이와 유사하다. 과학자들은 인공지능에 입력하는 데이터의 일부를 외부에서 무작위로 지우거나 변환시킨 후, 나중에 이들이 신경망의 결과에 얼마나 영향을 주는지를 관찰한다. 이 실험을 반복하면 인공지능이 판단을 내리는 데 가장 큰 영향을 주는 데이터가 무엇인지 찾아낼 수 있다.

두 번째 방법은 인공지능을 직접 조작하며 연구하는 방법이다. 특정 모델에서는 어떤 두 가지 변수가 밀접하게 연관되어 있는 경우가 있다. 예를 들면 땅의 면적과 가격은 비례한다. 구글 연구자는 이런 관계를 이용하여 거대한 다차원의 데이터베이스를 만든 후에 이를 심층신경망에 연결하였다. 결과가 예측 가능한 층을 심층신경망에 추가하는 방식으로 신경망을 직접 조작하며 연구하는 게 가능해졌다.

세 번째 방법은 또 다른 인공지능을 이용해서 블랙박스를 연구하는 방법이다. 딥 러닝을 이해하기 위해서 추가적인 딥 러닝을 수행한다. 예를 들어 미국 조지아 공대 연구자들은 첫 번째 인공지능에게 컴퓨터 게임을 하도록 지시하고 이 장면을 사람이 음성으로 해설하게 했다. 인간의 해설을 컴퓨터에 입력한 후, 컴퓨터 프로그래밍 언어와 영어, 두 가지 언어 사이를 번역하는 두 번째 인공지능을 훈련시켰다. 인공지능은 이제 자신이 하는 게임을 사람의 언어로 설명하고, 사람이 내뱉는 감탄사까지 따라 하고 번역할 수 있게 됐다. 인공지능이 스스로 자신이 하는 일을 설명하는 토대가 마련된 셈이다.

인간이 인공지능을 자유자재로 그리고 안전하게 쓰기 위해서는 우선 인공지능을 제대로 이해해야 한다. 친구나 동료가 그렇게 하듯이, 인간과 인공지능도 서로 의사소통을 해야 함께 일할 수 있다. 지금 인공지능의 연구는 상당히 중요한 반환점을 돌고 있는 셈이다.

- Copyrights ⓒ 조선일보 & chosun.com, 무단 전재 및 재배포 금지 -

Copyright © 조선일보. 무단전재 및 재배포 금지.