음란 영역으로 엇나간 '딥페이크'..피해자 25%는 한국 여성 연예인

안승진 2019. 10. 19. 15:01
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

지난해 3월 유명 걸그룹 멤버 A씨의 나체 합성사진이 인터넷 커뮤니티와 SNS(사회관계망서비스)등을 통해 퍼졌다. 해당 게시물에는 문제의 사진이 다른 연예인의 휴대전화에서 유출됐다는 설명이 있었고, A씨를 향한 모욕적인 댓글들이 달렸다. 해당 연예인의 소속사는 “제작자를 찾아 엄중한 처벌을 받도록 할 것”이라며 강력한 법적 조치를 예고했다. 합성 사진은 1년 뒤 ‘영상’으로 진화했다. 올해 초 ‘정준영 단톡방’ 사건이 터진 뒤 일부 인터넷 커뮤니티에서는 ‘정준영 동영상’이라는 연예인 성관계 영상이 거론됐다. 해당 영상은 여성 연예인들의 사진으로 합성한 영상들이었다. 예전에는 합성 영상을 만들려면 수많은 프레임을 수정해야 했다. 하지만 인공지능(AI)기술의 발달에 따라 요즘은 자동으로 얼굴을 인식해 합성영상을 만들 수 있게 됐다. 이런 영상은 이미지를 학습하는 ‘딥러닝’(Deep Learning)과 가짜를 뜻하는 ‘페이크’(Fake)를 합쳐 이른바 ‘딥페이크’라고 불리며 독버섯처럼 퍼지고 있다. 

◆ 합성 신기술 딥페이크…5분이면 제작가능

딥페이크는 본래 2017년 미국 커뮤니티 레딧(Reddit)에 관련 프로그램이 공유되며 확산한 것으로 알려졌다. 이후 딥페이크를 만들어주는 사이트가 여러 개 생겼고 모바일앱으로도 딥페이크 영상을 만들 수 있게 됐다. 한 유튜버가 올린 딥페이크 제작 영상을 보면 사진 한 장으로 합성영상을 만드는 시간은 5분도 걸리지 않았다. 빅데이터 기업 ‘링크브릭스’의 지윤성 대표는 “딥페이크 기술은 최근 영상 작업할 때 많이 쓰이고 있고 중국의 경우 드라마나 영화의 프로모션에서 시청자의 얼굴을 합성해주는 식으로도 사용되고 있다”고 말했다.

힐러리 클린턴 전 미국 대선 후보의 모습에 경쟁자였던 도널드 트럼프 대통령의 얼굴을 합성한 딥페이크. 유튜브 캡처
문제는 진짜인지 가짜인지 잘 구분되지 않아 딥페이크가 가짜뉴스 등에 악용되고 있다는 것이다. 인도에서는 지난해 4월 현 정권을 비판해온 여성 언론인의 얼굴이 음란 영상에 합성된 딥페이크가 유포됐다. 정권 지지자들이 해당 언론인의 정권 비판에 맞서 딥페이크를 제작한 것이다. 멕시코에서는 지난해 대선 과정에서 “대통령 후보의 대선 캠페인 종료식에 참가한 사람들이 후보캠프에서 받은 선불카드로 TV를 구입하기 위해 가게 앞에 모여있다”는 내용의 딥페이크가 퍼져 논란이 됐다.

◆ 음란 영역으로 엇나간 딥페이크…피해자 25%는 한국 여성 연예인

음란 영상도 딥페이크의 숙주다. 영국 BBC는 지난 7일 네덜란드의 사이버 보안업체인 ‘딥트레이스’(Deeptrace)의 연구 결과를 소개하며 지난해 12월 기준 7964개였던 딥페이크가 9개월 만에 1만4698개까지 급증했다고 전했다. 연구에 따르면 발견된 딥페이크의 96%가 음란물이었고 음란 딥페이크 피해자 중 25%는 한국 여성 연예인인 것으로 나타났다. 연구 책임자인 헨리 아이더는 “이 기술이 처음 등장했을 때 정치적인 가짜뉴스가 증가할 것으로 우려했으나 정작 음란물이 문제가 되고 있다”고 지적했다. 실제 한 해외 음란사이트를 분석한 결과 한국 여성연예인을 대상으로 한 딥페이크가 342개나 발견됐다. 대부분이 유명 아이돌로 해외에서 널리 알려진 이들이었다.

지 대표는 “정부에서 해외 음란 사이트를 못 들어가게 막아놨지만 (VPN)우회를 통해 접근하는 사람이 적지 않다”며 “해외 사이트의 경우 사법기관이 제재하기 어렵고 익명으로 음란 게시물을 올리는 사람도 많아 제재하기 쉽지 않다”고 설명했다.

◆ 법적 처벌기준 모호한 딥페이크…“기술적, 정책적 노력 이뤄져야”

국내에도 피해자가 속출하고 있는만큼 딥페이크의 악용을 막기 위해 제작자에 대한 강력한 처벌이 이뤄져야 한다는 지적도 나온다. 현행법상 직접 제작한 음란영상을 상업적 목적으로 제작해 유포할 때 ‘음란물건제조죄’(최대 1년 이하의 징역 또는 500만원 이하의 벌금)가 적용될 수 있다. 그 음란물로 인해 피해자가 나왔다면 ‘정보통신망 이용 촉진 및 정보보호 등에 관한 법률’에 따라 ‘사이버 명예훼손’(최대 7년 이하의 징역 또는 5000만원 이하의 벌금)이 적용될 수도 있다. 하지만 국내에선 딥페이크를 명확히 구분짓고 있지 않아 합성사진처럼 취급돼 자칫 솜방망이 처벌에 그칠 수 있다는 우려가 제기된다.

이에 따라 더불어민주당 허위조작정보대책특별위원회는 지난 1일 딥페이크를 이용한 성범죄를 저지를 경우 경제적 이득을 취한 자에게 최대 7년 이하의 징역, 유포한 자에게 5년 이하의 징역으로 처벌하는 ‘성폭력범죄 처벌 특례법 개정안’을 발의하기로 했다. 딥페이크를 성범죄로 구분해 처벌하자는 것이다.

김유향 국회입법조사처 과학방송통신팀장은 “국회에 20여건의 허위정보에 대한 법안이 제출됐지만 딥페이크에 대한 대응은 부재한 상황”이라며 “딥페이크는 산업적 잠재력이 큰 기술이지만 기존의 허위정보와는 차원이 다른 위험성을 내포하고 있으므로 입법적 검토와 더불어 정부차원에서도 기업과 연계해 콘텐츠의 서명기능개발, 변경내용 표시, 사용자 활용 허위동영상 판정도구 배포 등 기술적, 정책적 노력이 이뤄져야 한다”고 지적했다.

안승진 기자 prodo@segye.com

Copyright © 세계일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?