[The New York Times] 인공지능의 폭주 막을 3대 원칙

2017. 9. 12. 02:29
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI, 인간 위협할 만큼 성장
부작용 막을 법 제정 시급
'로봇 3원칙' AI에 적용하고
AI는 인간이 아님을 알려야
오렌 에지오니 AI 앨런연구소 대표
기업가 일론 머스크는 최근 미 주지사들에게 “너무 늦기 전에 인공지능(AI) 규제 방안을 마련해야 한다”고 촉구했다. 그는 AI가 ‘인류에 대한 존재적 위협’이 될 것이라고 경고했다. 머스크는 현실의 AI를 공상과학 소설과 혼동하는 듯 불안을 야기하고 있긴 하다. 그러나 무기와 일자리·개인정보 측면에서 AI가 몰고 올 부작용에 대해선 충분히 우려할 만하다고 나를 비롯한 AI 많은 과학자가 생각한다. 인류가 위험을 무릅쓰고 AI를 계속 발전시켜 나가야 하느냐 하는 의문도 필연적으로 제기된다.

일단 AI는 계속 발전해야 한다. 하지만 신중을 기하기 위해 AI의 발전 속도를 늦추는 것은 필요하다. 물론 그렇게 했다간 중국을 비롯한 여러 나라가 미국을 추월해 버릴 염려도 있다. AI라는 첨단 열차는 이미 역을 떠났다. 이제는 방향을 제대로 잡아주는 것이 최선이다. 우선 AI를 결코 무기화해선 안 된다. 또 AI가 아무리 날고 긴다 해도 인간에겐 무적의 무기, ‘스위치 끄기’가 있다. 정해진 방향 없이 빠르게 발전하는 AI 산업을 굳이 규제하고 고삐를 죄는 방식은 실패하기 십상이다. 그보다 자율주행차 안전시스템 도입 같은 AI 시스템에 실질적인 영향을 줄 수 있는 조치에 집중해야 한다.

탁월한 공상과학(SF) 소설 작가인 아이작 아시모프가 1942년 내놓은 ‘로봇 3원칙’을 한 단계 발전시킨 ‘AI 시스템 3원칙’을 나는 제안한다. 우선 아시모프의 로봇 3원칙은 다음과 같다. 첫째로 로봇은 인간을 다치게 해선 안 되며, 인간이 해를 입는 걸 방관해서도 안 된다. 둘째로 법칙 1에 위배되지 않는 한 로봇은 인간의 명령에 복종한다. 셋째로 법칙 1과 2에 위배되지 않는 한 로봇은 스스로를 보호해야 한다. 얼핏 듣기엔 그럴싸하지만 이 3원칙에는 애매한 측면이 있다. 무엇보다 AI가 방관해선 안 될 인간 ‘피해’가 과연 무엇인지 불분명하다. 따라서 AI가 인간에게 해를 주는 걸 피하기 위해 좀 더 구체적인 3원칙을 제시해 보겠다.

첫째로 AI 시스템 역시 이를 작동시키는 인간에게 적용되는 각종 규제를 동일하게 받아야 한다. 이 원칙은 가정과 기업·정부의 AI 시스템 모두에 적용된다. 우리는 AI를 통해 사이버폭력이나 주가조작·테러범죄가 일어나는 걸 원치 않는다. 미 연방수사국(FBI)이 AI 시스템을 이용해 함정수사를 하거나 자율주행 자동차가 정지신호를 무시하고 달리는 것, 또 AI 무기가 국제법을 무시하고 공격을 가하는 것도 원치 않는다. 인간이 책임져야 할 범죄를 AI 시스템에 전가할 수 없도록 법을 개정할 필요가 있다. 쉽게 말해 “내가 아니라 AI가 한 짓이에요”란 주장은 불법행위의 변명이 될 수 없다.

둘째로 AI는 자신이 인간이 아님을 명백히 알려야 한다. 사람과 대화할 수준으로 진화하고 있는 컴퓨터 로봇 프로그램에서 드러났듯이 AI 시스템은 사람과 상호작용할 때 자신이 사람이 아님을 공개적으로 밝힐 필요성이 있다. 지난해 미 조지아공대가 온라인 강의 조교 역할을 맡긴 로봇 ‘질 왓슨’을 사람으로 착각한 학생이 많았다. 로봇이 사람 행세를 할 경우 사람이 아니라 로봇임을 알리는 규정을 만들어야 한다. 트위터에서 도널드 트럼프를 흉내 내며 유머 트윗을 날리는 로봇 ‘@DeepDrumpf’가 좋은 예다. 이제 AI 시스템은 단순히 가짜 트윗만 올리는 것이 아니라 가짜 뉴스 동영상을 만들어 배포할 수도 있다. 워싱턴대 연구진은 최근 버락 오바마 전 대통령의 가짜 동영상을 공개했다. 오바마의 진짜 동영상을 가져와 실제와 완전히 다른 이야기를 하는 것처럼 그의 목소리를 덧씌운 가짜 동영상이었는데, 정말 감쪽같았다.

셋째로 AI 시스템은 원래 개발자의 동의 없이 기밀 정보를 공개하거나 보유할 수 없다. 정보를 자동적으로 추출·기록·분석할 수 있는 능력을 갖춘 덕에 AI 시스템은 기밀 정보를 입수하는 데 능하다. 많은 가정에서 쓰는 ‘스마트 스피커’인 아마존 에코와 우리가 나누는 모든 대화가 정보로 축적된다고 생각해 보자. 아이들이 AI 바비 인형 등을 상대로 가족에 대해 무심코 흘린 말이 모두 저장돼 수집된다면? 정보 유출과 아무 상관없어 보이는 청소로봇이라도 우리 집 구조를 상세한 지도로 만들 수 있다. 이런 개인정보는 함부로 공개될 수 없도록 만들어야 한다.

이런 AI 3원칙이 결코 완전하다고 볼 순 없다. 앞으로 논의돼야 할 AI 규제의 출발점일 뿐이다. AI의 발전 속도와 그것이 인류에 미칠 영향에 대한 머스크의 주장에 동의하든, 안 하든(나는 동의하지 않는다) AI가 우리 곁에 진정 가까이 다가온 것만은 분명하다. 이제 준비해야 할 때다.

오렌 에지오니 AI 앨런연구소 대표

◆원문은 중앙일보 전재 계약 뉴욕타임스 신디케이트 9월 1일 게재

Copyright © 중앙일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?