"AI는 최악의 사건.. 2600년까지 지구 탈출해야"

박건형 기자 2017. 11. 8. 03:05
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

스티븐 호킹의 섬뜩한 미래 전망
'웹 서밋 콘퍼런스' 연사로 나서 "AI가 인간을 완전히 대체할 수도"
태양계 밖 이주 기술 개발 중
/AP 연합뉴스

"인공지능(AI)은 인류 문명사에서 최악의 사건이 될 수 있다."

"서기 2600년이면 지구는 인구 포화와 자원 낭비로 불덩어리(sizzling fireball)가 될 것이고, 인류는 그 전에 지구를 탈출해야 한다."

영국의 세계적 물리학자 스티븐 호킹(75·사진) 케임브리지대 교수가 인공지능과 인구 증가가 미래에 심각한 위협이 될 수 있다며 대책 마련을 촉구했다. 6일 포르투갈 리스본에서 열린 '웹 서밋 기술 콘퍼런스'에 연사로 나서 "이론적으로 보면 컴퓨터가 인간 지능을 모방하고 뛰어넘을 수도 있다"며 "인류가 그 위험에 대처하는 방법을 배우지 못하면 AI는 인류 문명사 최악의 사건이 될 것"이라고 말했다.

AI를 개발하는 과학자와 기업들은 현재 기술로는 AI가 아무리 발전해도 스스로 지능을 갖추거나 감정을 갖는 것은 불가능하다고 주장해왔다. 하지만 호킹 교수는 "자율적으로 작동하는 강력한 AI 무기뿐 아니라 많은 사람을 억압하는 기술이 등장할 수도 있고, 경제 체제가 완전히 붕괴될 수 있다"면서 "AI 개발자들이 충분한 시험을 거치고 효과적인 통제를 받아야만 AI가 선하게 사용될 수 있을 것"이라고 했다.

호킹 교수가 AI의 위험을 경고한 것은 처음이 아니다. 그는 전기차 업체 테슬라의 일론 머스크 최고경영자와 함께 대표적인 AI 비관론자로 꼽힌다. 올해 초 영국 더타임스 인터뷰에서는 "AI 통제를 위한 세계 정부 구성이 시급하다"고 주장했고, 최근 미국 와이어드 인터뷰에선 "누군가는 스스로 진화하고 복제하는 AI를 만들 것인데, 이로 인해 AI가 인간을 완전히 대체할지도 모른다"고 했다.

호킹 교수는 앞서 5일 중국 베이징에서 열린 인터넷 기업 텐센트의 '위 서밋'에서 영상 메시지를 통해 "인류는 종(種)을 보존하고 앞으로 수백만 년을 살기 위해 다른 행성이나 외계 은하로 떠나야 한다"며 "현재 이주 기술을 개발하고 있다"고 했다. 실제로 그는 마크 저커버그 페이스북 창업자, 러시아 벤처 투자자 유리 밀너 등과 함께 태양계에서 수십조㎞ 떨어진 알파센터 우리별로 우주선을 보내는 '브레이크스루 스타샷(Breakthrough Star shot)' 프로젝트를 진행하고 있다.

얇은 돛을 단 우주선에 레이저를 쏘아 바람을 받는 것처럼 속도를 내게 하는 방식이다. 공기저항이 없기 때문에 속도가 계속 빨라져 시속 1억6000㎞로 날아갈 수 있다는 것이 그의 계산이다. 발사까지 20년이 소요될 이 프로젝트에는 무려 100억달러(약 11조1100억원)가 투입된다. 호킹 교수는 "이 기술이 완성되면 화성은 1시간 이내, 명왕성까지도 하루면 갈 수 있으며 1977년 발사돼 40년 이상 날아간 보이저 1호를 일주일 이내에 따라잡을 수 있다"고 했다.

- Copyrights ⓒ 조선일보 & chosun.com, 무단 전재 및 재배포 금지 -

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?