진짜가 사라진다

2017. 5. 16. 15:08
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

선거를 치르는 나라에선 이제 '가짜 뉴스'와의 싸움이 필수 여정이 됐다.

절차적 민주주의의 근간인 선거제도 자체를 흔드는 위협이니 가만둘 수 없는 일이다.

뽑는 이가, 뽑아야 하는 뿌리보다 뽑고 싶은 뿌리를 뽑기 위해 악용하는 게 더 문제일 수 있다.

멀리 갈 것도 없이 일본 애니메이션 주인공에서 이름을 따와 만든 가공의 미국 스탠퍼드대학 교수가 "한국 대통령 탄핵 흐름이 매우 괴이하고 음험하다고 말했다"는 가짜 텍스트 몇 줄로 한국 사회에서 거대한 태극기 인파가 만들어졌다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[한겨레21] 목소리·영상까지 조작 가능한 인공지능 기술

인공지능 기술은 목소리나 영상을 변조하는 단계로 나아가고 있다. 영상 속 인물의 표정을 바꾸는 기술인 ‘페이스투페이스’(Face2Face) 개발팀의 논문에 실린 기술 시연 장면. www.graphics.stanford.edu/~niessner

선거를 치르는 나라에선 이제 ‘가짜 뉴스’와의 싸움이 필수 여정이 됐다. 절차적 민주주의의 근간인 선거제도 자체를 흔드는 위협이니 가만둘 수 없는 일이다. 그렇다고 우리 식대로 “뿌리 뽑고 엄단”하겠다고 덤비는 것도 곤란하다. 무엇을 뽑을 뿌리로 볼지, 그것을 누가 판단할지, 그 뿌리는 누가 뽑을지 생각해야 한다.

또 하나의 문제는, 뽑을 뿌리와 멀쩡한 뿌리의 경계가 흐릿하다는 것이다. 뽑는 이가, 뽑아야 하는 뿌리보다 뽑고 싶은 뿌리를 뽑기 위해 악용하는 게 더 문제일 수 있다.

가짜와 진짜를 구별할 수 있는가는 플라톤부터 미셸 푸코나 질 들뢰즈에 이르기까지 인류가 수천 년을 고민해온 철학 주제이기도 하다. 영화 <공각기동대>나 <매트릭스>가 던진 질문처럼, 나는 실제인가 허상인가? 내가 허상이라면 그 허상은 또 진짜인가 가짜인가! 장 보드리야르의 말대로 우린 이미 모사된 이미지(시뮬라크르)가 현실을 대체하고 오히려 그것이 더 실재 같은 ‘하이퍼리얼리티’ 세상에 사는지 모른다. 스스로 학습하고 진화해가는 인공지능 알고리즘이 탄생한 요즘이라면 더욱 그렇다.

내가 나임을 증명하는 것은 생각보다 쉽지 않다. 사진? 당연히 아니다. 이젠 수고스러운 ‘포샵질’도 필요 없다. 스마트폰 앱 하나면 도널드 트럼프 미국 대통령의 얼굴도 20대로 보이게 만들 수 있다. 러시아의 한 인공지능 업체가 만든 ‘페이스앱’(FaceApp)은 원하는 나이대에 맞는 자연스러운 주름 제거 정도는 기본이고 미소도 집어넣을 수 있다. 같은 얼굴로 남녀 성을 바꾸는 것도 가능하다.

목소리는 나만의 것일까? 캐나다 몬트리올의 업체 ‘라이어버드’(Lyrebird)는 지난 4월 말 성대모사 인공지능 알고리즘을 개발해 내놨다. 60초 정도의 음성 데이터만 있으면 그 목소리의 ‘음성 틀’을 바로 만들어낸다. 이 틀에 원하는 문장을 텍스트나 음성으로 넣으면 그만이다. 목소리에 감정을 입힐 수도 있다. 버락 오바마 전 미국 대통령의 1분짜리 자상한 목소리만 있으면 버럭 소리 지르는 그를 만들 수 있다.

영상은 어떨까? 독일 막스플랑크연구소와 에를랑겐대학, 미국 스탠퍼드대학이 공동 개발한 ‘페이스투페이스’(Face2Face) 기술은 영상의 ‘진본성’(authenticity)에 의문을 던진다. 영상 속 인물의 표정을 내 얼굴 표정으로 조작하는 기술이다. 내가 입을 크게 벌리면 재생 영상 속 트럼프 대통령도 입을 똑같이 벌린다. 눈썹을 들썩이고 입을 실룩거려도 그대로 따라한다. 유튜브엔 조지 부시, 버락 오바마 전 미국 대통령과 블라디미르 푸틴 러시아 대통령의 연설 장면으로 만든 시연 영상이 올라 있다.

페이스앱 사진, 라이어버드 목소리, 페이스투페이스 영상을 결합해보면 어떨까? 어떤 조합이든 막강 그 자체일 것이다. 이렇게 만든 결정적인 가짜 사진, 목소리와 영상이 대선 직전에 번졌다면? 당장 보이스피싱에 이 기술이 사용된다면? 그럼 기술을 만든 업체를 탓해야 할까? 지금이라도 기술 개발을 막아야 하는 것 아닐까?

라이어버드가 기술 전문 매체 <더 버지>와의 인터뷰에서 밝힌 대목이 와닿는다. “목소리가 더 이상 안전한 보안 기술 또는 법정 증거가 될 수 없을 것이다. 피해를 막기 위해서라도 이 기술은 더 빨리, 널리 알려져야 한다. 우리가 아니어도 누군가는 개발했을 기술이다. 더구나 스스로 진화의 길을 걷는 인공지능 분야에서 막는 방법은 대안이 될 수 없다.”

우린 이미 이런 세상에 살고 있다. 멀리 갈 것도 없이 일본 애니메이션 주인공에서 이름을 따와 만든 가공의 미국 스탠퍼드대학 교수가 “한국 대통령 탄핵 흐름이 매우 괴이하고 음험하다고 말했다”는 가짜 텍스트 몇 줄로 한국 사회에서 거대한 태극기 인파가 만들어졌다.

함석진 넥스트인스티튜트 교수

독자  퍼스트  언론,  <한겨레21>  정기구독으로  응원하기!
전화신청▶ 02-2013-1300 (월납 가능) 인터넷신청▶ http://bit.ly/1HZ0DmD 카톡 선물하기▶ http://bit.ly/1UELpok

공식 SNS [통하니][트위터][미투데이] | 구독신청 [한겨레신문][한겨레21]

Copyrights ⓒ 한겨레신문사, 무단전재 및 재배포 금지

<한겨레는 한국온라인신문협회(www.kona.or.kr)의 디지털뉴스이용규칙에 따른 저작권을 행사합니다.>

Copyright © 한겨레21. All rights reserved. 무단 전재, 재배포 및 크롤링 금지.