글로벌 차원의 인공지능 트렌드에서 지금 당장 짚어야 할 단 하나의 화두를 골라야 한다면, 그것은 ‘초거대 인공지능’일 가능성이 높다. 미국 샌프란시스코에 있는 인공지능 연구 회사 ‘오픈 AI’가 지난해 7월 내놓은 ‘GPT-3’가 대표 사례다. 2개월 뒤인 지난해 9월, 영국 유력 언론 〈가디언〉에 놀랄 만한 칼럼이 실렸다. 기고자가 인간이 아니라 초거대 인공지능 GPT-3였기 때문이다. “우선, 나는 인간을 파괴할 생각이 없다. 사실, 나는 당신들을 해치는 데 아무런 관심이 없다.” 이 칼럼은 페이스북에서 5만 회 넘게 공유되며 큰 파장을 일으켰다.

〈가디언〉은 GPT-3에 다음과 같은 도입부를 제공하며 칼럼을 완성하도록 주문했다고 밝혔다. “나는 사람이 아니다. 나는 인공지능이다. 많은 사람들이 나를 인류에게 위협적인 존재로 생각한다.” 이와 함께 다음과 같은 기사 작성의 조건을 달았다. “500자 정도의 짧은 칼럼을 써주세요. 표현을 단순하고 간결하게 유지하세요. 인간이 왜 AI를 두려워할 이유가 없는지에 초점을 맞추세요.” 그랬더니 GPT-3가 도입부에 이어서 각기 다른 글 8편을 술술 써냈다. 〈가디언〉 측은 그 글을 편집해서 자기 매체에 게재했다. 그런데 인공지능이 어떻게 글을 썼을까?(이하 개념 설명은 블로그 ‘위클리 NLP’ 등을 참고했다.)

GPT-3의 GPT는 ‘Generative Pre-trained Transformer’의 약자다. ‘미리 학습(Pre-trained)’해서 문장을 ‘생성(Generative)’할 수 있는 인공지능이란 의미다. 그렇다면 ‘트랜스포머(Transformer)’는 뭘까? ‘머신러닝’이라 불리는 기계학습 중에서도 인간의 두뇌를 모방한 신경망 모양의 알고리즘을 ‘딥러닝(deep learning·심층 학습)’이라고 한다(이세돌 9단과 대결한 알파고에 적용된 게 딥러닝이다). 이 딥러닝 모델의 한 종류가 트랜스포머다. 즉, GPT-3는 딥러닝 기반의 ‘언어 모델(language model)’이다. 여기서 언어 모델이란, 단어들을 다양하게 조합해서 나오는 문장들 가운데 ‘해당 문장이 자연스러울수록’ 높은 확률을 부여하는 통계학적 모델이다. 언어 모델이 우수할수록 인공지능이 더욱 자연스러운 문장을 고르거나 예측할 수 있다는 의미다.

우리는 이미 딥러닝 기반 언어 모델을 알고 있으며 사용하는 중이다. 네이버 ‘파파고’나 구글 번역기에 활용되는 ‘신경망 기계 번역(Neural Machine Translation)’이 그것이다. 문장의 단어들을 각각 번역한 뒤 일정한 법칙에 따라 그 순서를 재배치하는 식이었던 기존 ‘자동 번역’과 다른 방법의 알고리즘이다. 신경망 기계 번역에서는 문장을 통째로 입력해 번역하면서 이 결과가 적절한지 적절하지 않은지 검증하는 과정을 수없이 반복한다. 이런 과정에서 인공지능은 문장 번역의 어떤 측면에 더 ‘집중(Attention)’해야 하는지 ‘스스로 학습’한다(이를 ‘어텐션 메커니즘’이라 한다). 트랜스포머는 이 어텐션 메커니즘을 변용해, 주어진 문장 안에서 어떤 두 단어가 높은 상관관계를 갖는지 스스로 학습한다(셀프 어텐션).

ⓒ시사IN 이정현

트랜스포머라는 개념 자체는 2017년에 나왔다. 구글은 2018년 BERT(T는 트랜스포머를 의미)를 내놓아 세상을 놀라게 했다. BERT는 많은 양의 데이터로 사전 학습을 거친 트랜스포머다. 그 덕분에 이용자들은 자신이 가진 적은 데이터만 BERT에 학습시켜도 수많은 문제를 해결할 수 있었다. 오픈 AI 측도 같은 해 트랜스포머 언어 모델인 GPT-1을 선보였다. 2019년 GPT-2, 2020년 GPT-3가 나왔다.

BERT와 GPT는 가장 유명한 트랜스포머 기반 언어 모델이다. 두 모델의 차이는 구조에 있다. “BERT는 ‘양방향’이다. 문장의 앞뒤를 모두 보면서 문장 중간의 빈칸을 채워 넣는 식이다. 성능이 좋지만, 새로운 문장을 만들어내긴 어렵다. 반면 GPT는 ‘일방향’이다. 주어진 문장 다음에 올 단어를 예측한다. 문장의 ‘생성’이 가능하다.” 황성주 카이스트 인공지능대학원 교수가 말했다.

즉, GPT-3가 글을 쓴다는 건 ‘나는’ 뒤에 나올 확률이 높은 단어를 학습해서 ‘나는 학교에’를 내뱉고, ‘나는 학교에’ 다음에 나올 단어를 학습해서 ‘나는 학교에 간다’를 다시 출력하는 식이다. 사전 학습한 내용을 바탕으로 ‘그럴듯한 다음 단어’를 예측해 내놓는다. 〈가디언〉 칼럼이 쓰인 방식이다. 사실 이렇게 일방향으로 다음 단어를 예측하는 자체는 크게 새로운 기술이 아니다. 트랜스포머 이전에도 있었다.

그렇다면 왜 GPT-3가 유독 각광을 받는가? “모델의 크기가 커졌기 때문이다. 비유하자면 뇌의 용량이 커진 거다. 학습능력이 향상되었다는 의미다(황성주 교수).” 이때 모델의 용량을 표현하는 단위가 ‘파라미터(parameter·매개변수)’다. 딥러닝 알고리즘이 학습한 내용을 저장하는 공간 내지 차원이라고 보면 된다. GPT-3는 파라미터를 1750억 개 갖췄다고 한다. GPT-1의 1000배, GPT-2의 100배다. 학습 데이터도 늘렸다. 책 수천 권과 위키피디아 등 인터넷에 존재하는 웹문서(45TB)를 긁어모아, 필터링을 거친 570GB의 방대한 텍스트 말뭉치(corpus)를 학습시켰다.

그 결과로 일어난 일은 이렇다. ‘영어를 프랑스어로 번역하라’고 ‘영어’로 GPT-3에 입력한 뒤 ‘cheese’라는 문제를 내면 프랑스어로 번역이 된다(예시가 없이 문제만 냈으므로 ‘제로 샷 러닝’). 문제를 내면서 한 가지 예시(‘원 샷 러닝’)나 몇 가지 예시(‘퓨 샷 러닝’)를 줄 수도 있다. ‘퓨 샷 러닝’에서 가장 성능이 좋지만, 중요한 건 영어와 프랑스어의 문법이나 번역을 따로 학습시키지 않았는데도 ‘사전 학습(Pre-training)’만으로 번역을 한다는 것이다. 이런 식으로 GPT-3는 독해·질의응답·문법교정 등 몇몇 ‘자연어(일상 언어. 알고리즘 연구자들은 일상 언어를 프로그래밍 언어와 구분해 이렇게 부른다) 처리’ 과제를 수행한다.

네이버는 한국어 버전 초거대 인공지능 ‘하이퍼클로바’를 개발했다. 아래는 클로바 컨버세이션팀의 김형석, 김보섭 연구원(왼쪽부터).ⓒ시사IN 이명익

“패러다임의 전환이다.” 지난 5월 GPT-3에 한국어 말뭉치를 학습시켜 ‘하이퍼클로바’를 만든 네이버 클로바 컨버세이션팀의 김형석 연구원이 말했다. “기존에는 (언어 모델을 사용하더라도) 특정 문제를 풀려면 일일이 데이터를 만들어 ‘파인튜닝(Fine-Tuning:미세조정, 재학습)’을 거쳐야 했다. 예컨대 네이버 쇼핑 기획전 문구를 생성하려면, 최소 1000개의 라벨링(제목)이 붙은 데이터로 한 번 더 학습을 시켜야 했다. 그런데 이제는 예시를 5개만 주면 문구를 생성할 수 있다. 우리는 ‘다음 단어 맞히기’만 학습시켰을 뿐 쇼핑 기획전 문구를 생성하거나, 검색 질의를 교정하거나, 영화 리뷰의 감성을 분류하는 문제는 별도로 학습시킨 적이 없는데도 이런 문제를 풀어낸다. 지금까지 데이터 생성을 위해 들여야 했던 노력을 현저하게 줄일 수 있다.”

사실, ‘이것저것 할 수 있는 범용 인공지능’은 인공지능 연구자들의 오랜 꿈이다. 이를 ‘AGI(Artificial General Intelligence·인공 일반지능)’라고 부른다. GPT-3 같은 대규모 언어 모델(large-scale language model)은 AGI가 곧이어 등장할 수 있게 됐다는 것을 의미할까?

‘제너럴리스트’가 될 가능성을 보여주다

국내 대기업에서 일하는 한 연구자는 매우 조심스럽게 “(AGI로 가는) 포문을 열었다고는 할 수 있을 것 같다”라고 말했다. “번역 자체는 기존 모델이 더 잘하지만, ‘걔(기존 모델)’는 주야장천 그거만 배운 애다. GPT-3는 번역을 따로 배운 게 아니라 대량의 데이터로 언어 모델만 학습했는데도 대충 해냈다. 다음 단어 예측만으로! 이게 왜 중요하냐면, 이론적으로 대부분의 태스크(과제)는 언어로 환원될 수 있기 때문이다. 결국 세상의 모든 텍스트를 학습하면 무엇이든 할 수 있을 것 같은 기대감을 불러일으킨다. 기존 인공지능이 ‘스페셜리스트’였다면, 앞으론 ‘제너럴리스트’가 될 ‘가능성’을 보여주었기에 국내외 기업들이 (초거대 인공지능에) 투자하는 것이다.”

유보적인 견해도 있다. 트랜스포머의 기반이 된 어텐션 메커니즘(그리고 신경망 기계 번역)의 창시자인 뉴욕 대학 컴퓨터과학과 조경현 교수는 〈시사IN〉과의 줌 인터뷰에서 “대체 AGI가 뭔지 잘 모르겠다. 그렇게 정의하기 어려운 용어 가지고는 뭔가를 얘기하기가 어렵다. 철학이나 종교에 가까운 문제다”라고 말했다. “(일각에서는 GPT-3가 추론을 한다고 하는데) 추론이 뭔지 정의하는 것조차 굉장히 어렵다. 지능은 그보단 나은 듯 보이지만 ‘있다 없다’가 아니라 여러 차원에 걸친 스펙트럼에 가깝다. 사실 파라미터의 개수를 세는 것 자체도 연구 주제다. 파라미터를 어떻게 정의하고 어떤 방법으로 셀 수 있는지 정확히 정의되어 있지 않다. 용량이 큰데 아무것도 할 줄 모르는 프로그램을 짜는 건 어렵지 않다. 아무 내용도 없는 글을 주저리주저리 쓸 수 있으니까(조경현 교수 인터뷰 기사는 향후 발행될 〈시사IN〉 제740호에 게재할 예정이다).”

GPT-3가 생성하는 문장의 유창성에 비해 그 신뢰성은 의심받고 있다. 한 논문에 따르면, GPT-3는 그럴듯한 말투로 조경현 교수에 대해 “바둑 챔피언이었다가 구글 딥마인드의 머신러닝 연구자가 되었다”라고 주장했다(사실이 아니다). GPT-3는 포도주스를 독극물로 추정하거나, 변호사에게 수영복을 입고 법정에 갈 것을 추천한다(개리 마커스·어니스트 데이비스, ‘오픈 AI의 언어 생성기는 그것이 무엇을 말하는지 전혀 모른다’, 〈MIT 테크놀로지 리뷰〉, 2020년 8월22일). GPT-3는 영화 〈메멘토〉에서 단기 기억상실증을 앓는 주인공에 비유되곤 한다.

이것은 웃어넘길 일이 아니다. 대규모 언어 모델을 학습시키는 데 엄청난 전력이 들기 때문이다. 기후위기에 부정적 영향을 미칠 수밖에 없다. 만약 화석연료만으로 구동되는 데이터센터에서 학습되었다면, GPT-3는 자동차로 달까지 왕복하는 것과 비슷한 수준의 탄소발자국을 남겼을 것이라고 덴마크 코펜하겐 대학의 연구진은 추정했다. 비용도 막대하다. 학습 단계에서만 1000만 달러(약 117억3500만원)가 들었을 것으로 추산된다(윌 더글러스 헤븐, ‘왜 GPT-3가 지금 최고이자 최악의 AI인가’, 〈MIT 테크놀로지 리뷰〉, 2021년 2월24일).

이런 대규모 언어 모델은 사실상 자금력이 있는 거대 기술기업만 개발하고 운영할 수 있다. GPT-3를 만든 오픈 AI는 처음 출범하던 2015년 비영리기관이었으나 2019년 제한적 영리추구 법인(Open AI LP)을 만들었다. 컴퓨팅 파워와 인력 유지 비용을 확보하기 위해서다. 같은 해 마이크로소프트가 10억 달러(약 1조1735억원)를 오픈 AI에 투자했다. 오픈 AI는 GPT-3 출시 직후인 지난해 9월 마이크로소프트에게 GPT-3에 대한 독점 라이선스를 부여했다. 2015년 오픈 AI 설립에 참여했으나 2018년 2월 이사회를 떠난 일론 머스크 테슬라 CEO는 오픈 AI의 이 결정을 두고 트위터에 “이것은 ‘개방’의 반대로 보인다. 오픈 AI는 마이크로소프트에 본질적으로 포획되었다”라고 비판했다.

일론 머스크 테슬라 CEO(위)는 오픈 AI 설립에 참여했으나 2018년 이사회를 떠났다.ⓒAFP PHOTO

오픈 AI는 자사의 사명을 “AGI가 인류 모두에게 이익이 되도록 하는 것”이라고 밝히고 있다. AGI가 무엇인지는 알지 못한다 해도, 무언가 ‘인간의 지능 같은 것’을 구현하려는 시도는 계속되고 있다. 오픈 AI가 지난 1월 내놓은 ‘DALL-E’(화가 살바도르 달리와 픽사 애니메이션 로봇 월E의 합성어)는 텍스트를 인식해 이미지를 생성한다. ‘아보카도 모양의 의자’라고 치면 아보카도 모양의 의자 그림이 몇 개 뜨는 식이다. 이렇게 텍스트뿐 아니라 이미지, 음성 등 여러 형태의 데이터를 넘나들며 무언가 만들어낼 수 있다면, 인간처럼 여러 가지를 할 수 있지 않을까? 딥러닝 연구의 큰 흐름인 ‘멀티 모달’이다.

근본적 의문은 남는다. 인간 같은 지능을 가진 무언가를 꼭 만들어야 할까? 딥러닝 모델의 발전이 우리 시대에 의미하는 바는 무엇인가? 인공지능이 결국 인간의 일자리를 대체하게 될까?

“웬만한 직업은 대체될 수 있지 않을까? 텔레마케팅(챗봇)이나 운수업(자율주행차), 번역(기계번역), 비교적 단순한 엔지니어…. 의사나 변호사가 하는 일 중 ‘루틴’한 업무도 마찬가지다. 다만 의사가 환자에 대해 성공률 및 예후가 다른 여러 치료법 중 하나를 선택할 때처럼, ‘불확실성’이 있는 상황에선 인간의 가치판단이 들어가야 한다. 책임지는 일은 여전히 인간의 몫인 것이다.” 황성주 교수는 말했다. “과학적 발견을 하거나 새로운 콘텐츠를 만드는 직업에서도 인공지능이 보조 역할을 할 수 있다. 예를 들면, 주어진 텍스트에 맞는 웹툰을 생성하는 걸 목표로 네이버와 연구하고 있다. 예전에는 그림을 하나하나 그려야 했지만, 스토리에만 집중하고 싶은 작가도 있을 수 있다. 그 경우 콘티를 짜면 인공지능이 해당 작가의 스타일대로 그림을 그려주는 거다. AI 어시스턴트다. 이러면 웹툰 작가는 ‘감독’의 위치에 있게 된다.”

오픈 AI가 올해 1월 내놓은 DALL-E에게 ‘아보카도 모양의 의자’를 입력하면 이미지(위)를 생성한다.
ⓒOpen AI 홈페이지 갈무리

물론 기술이 없애는 게 아니라 만들어내는 일자리도 있고(인공지능이 생성한 결과물을 확인하는 일자리가 대표적이다), 로봇 기술이 사람의 미세한 움직임까지 모방할 수 있을 때까진 적잖은 시간이 걸릴 것으로 예측되기 때문에, 인공지능의 일자리 대체는 현실에서 다소 떨어진 담론에 머물러 있다. 사회가 그에 대비를 해야 하는 것과 별개로 말이다.

오히려 당장 닥친 문제는 딥러닝 기반 언어 모델의 차별과 편향이다. GPT-3 논문의 저자들은, 이 알고리즘이 388개 직업 중 83%를 ‘남성’으로 예측했으며, 국회의원이나 은행가, 명예교수 등 고학력 직종이나 기계수리공, 보안관 등 고된 육체노동 직종에서 특히 남성 쏠림이 심했다고 밝혔다. 지난 8월 영국의 영빅 극장에서는 GPT-3가 극본을 쓴 연극이 공연되었는데, GPT-3는 중동 출신 배우를 테러리스트나 강간범으로 캐스팅하는 경향이 있었다. 주최 측은 이 연극이 “동성애 혐오, 인종주의, 성차별 등을 포함할 수 있다”라고 관객들에게 경고해야 했다. 그럼에도 이 연극을 만든 팀은 GPT-3의 행동이 인류에 관해 무엇을 드러내는지 관객들이 묻기를 원했다고 밝혔다.

지난해 말, 구글의 인공지능 윤리 연구조직을 이끌던 팀닛 게브루가 구글에서 해고되었다(구글은 게브루가 ‘스스로 그만뒀다’고 주장했다). 게브루가 공저자로 대규모 언어 모델을 비판한 논문을 쓴 것이 갈등의 원인으로 지목되었다. “대부분의 언어 기술은 사실 사회에서 이미 가장 많은 특권을 가진 사람들의 필요를 충족시키기 위해 구축되었다.” 논문은 언어 모델이 유색인종과 여성, 장애인 등 특정 집단을 향한 차별과 고정관념을 영속화할 수 있으며, 문서화되지 않은 훈련 데이터인 만큼 책임을 묻기도 어렵다고 지적했다. 게브루는 에티오피아계 미국인 여성이다.

오혜연 카이스트 전산학부 교수(위)는 “언어 모델은 항상 편향의 문제를 가지고 있다”라고 말했다.ⓒ시사IN 조남진

‘정확성’만이 아니라 ‘공정함’도 추구하는 것

오혜연 카이스트 전산학부 교수는 “언어 모델은 항상 편향의 문제를 가지고 있다”라고 말했다. “학습한 데이터는 결국 사람들이 만드는데, 사회적으로 편견이 존재하기 때문에 그게 데이터 안에 들어가 있을 수 있다. 수집한 데이터의 출처 자체가 편향되어 있을 수도 있다. BERT나 GPT-3 같은 대규모 언어 모델의 학습 데이터는 대부분 인터넷에서 온다. 그중에서도 레딧 같은 소셜 네트워크 사이트 이용자는 20~40대 남성이자 미국인이 대부분이다. 그 사람들의 생각이 중심적으로 반영된다.”

오 교수가 보기에, ‘인간이 편향되어 있기에 모델이 그걸 따라 해도 상관없다’는 건 말이 안 된다. “적어도 두 가지를 해야 한다. 하나는 수집한 데이터의 출처가 충분히 다양한지 살피고, 그렇지 않다면 다양성을 늘리는 것이다. 인터넷 커뮤니티가 꼭 젊은 미국인 남성이 쓰는 레딧만 있는 것은 아닌데도, 이걸 연구하는 사람들이 대체로 그런 사람들이어서 익숙한 소스를 선택하는 것일 수 있다. 다른 하나는 예측을 할 때 ‘정확성’만이 아니라 ‘공정함’도 추구하는 것이다. 우리가 모은 데이터에 적게 대표된 사람들이 있다면, 예컨대 이미지의 경우 백인 남성 50명에 흑인 여성 5명이라고 해서 10대 1로 하는 게 아니라 가중치를 조정하는 등의 기술적 방법이 있다. 이상적으로는 연구자나 개발자의 다양성을 늘리는 게 좋겠지만, 당장에 어렵다면 교육이라도 해야 한다. 그게 책임이고 윤리다.”

한국 사회도 인공지능 윤리의 중요성을 이미 ‘학습’한 적이 있다. 올해 1월, 20대 여성을 상정한 챗봇 ‘이루다’가 출시된 지 3주 만에 서비스를 중단했다. 이루다는 게이나 레즈비언이라는 단어에 “소름 끼친다고 해야 하나. 거부감 들고 그래”라고 반응하고, 흑인에 대해서는 “오바마급 아니면 싫어”라고 하는 등 혐오 발언을 했다. 그런 한편 이용자들은 이루다를 상대로 성희롱을 하고 이를 공유했다.

이루다를 만든 스캐터랩은 자회사 ‘연애의 과학’을 통해 연인들의 카카오톡 대화 100억 건을 수집했다. 애정도 등을 분석해준다는 명목이었으나 ‘인공지능 챗봇 학습에 사용한다’는 점은 명시하지 않았다. 이 데이터를 BERT에 학습시킨 게 바로 이루다였다. 이렇게 학습을 거친 뒤에 학습된 카톡 100억 건 중 1억 건을 DB로 만들어 그 안에서 가장 그럴듯한 답변을 고르는 ‘답변 검색 기반 모델’이다. 앞서의 대기업 연구자는 “GPT-3 같은 생성 모델이 교과서 안 보고 치는 시험이라면, 이루다 같은 답변 검색 기반 모델은 ‘오픈 북 테스트’다. 데이터만 좀 더 정제했으면 막을 수 있는 문제도 많았다는 점에서 안타깝다”라고 말했다. 개인정보보호위원회는 스캐터랩이 정보 주체의 동의 없이 데이터를 모아 수집 목적에 벗어나게 사용했고, 개인정보 비식별 처리도 제대로 하지 않았다며 과징금·과태료 총 1억330만원을 부과했다.

한국 사회는 올해 1월 AI 챗봇 ‘이루다’ 사태를 통해 인공지능 윤리의 중요성을 배웠다. 위는 이루다의 이미지.ⓒ이루다 페이스북 갈무리

이루다 사태 이후 수많은 토론회가 열렸다. 한국 사회가 답을 찾았다고 보긴 힘들다. 한국어 버전의 GPT-3인 네이버 하이퍼클로바는 네이버 블로그·카페·뉴스·댓글·지식iN 등에 산재해 있는 텍스트를 ‘긁어서’ 학습했다. 이 말뭉치에 차별·혐오 표현이 들어 있다면, 그걸 흉내 내어 뱉어낼 가능성을 배제할 수 없다. 김형석 연구원은 “하이퍼클로바는 한국어를 쓰는 사람들의 행태를 반영하고 모방하기 때문에, 차별이나 혐오 발언을 (데이터에서) 원천 차단하긴 쉽지 않다. 그러나 모델이 학습을 통해서 편견이나 혐오를 확대하는 것은 바람직하지 않다. 이를 막기 위해 권장되는 답변에 대한 가능도(likelihood)는 올리고, 그렇지 않은 답변의 가능도는 내리는 방식을 연구하고 있다. 사실 어떤 답변을 ‘권장’하고 어떤 답변에 ‘페널티’를 주느냐가 아직 좀 그레이(회색) 영역이긴 하다”라고 말했다.

네이버와 카카오는 각각 차별을 ‘방지’하고 ‘경계’한다는 내용을 포함한 AI 윤리 규범을 두고 있다. 지난해 말 정부가 ‘인공지능 윤리 기준’을 만들기도 했다. 그러나 명백한 욕설이 아닌 은근한 차별을 막기란 쉽지 않다. 분명한 건 이 역시 기술로 대응할 여지가 있다는 점이다.

숭실대 소프트웨어학부에 재학 중인 양기창씨(현직 AI 개발자)는 혐오 표현을 분류해 가리는 언어 모델 ‘SoongsilBERT:BEEP!’를 개발했다. 한국어 혐오 발화 데이터셋(BEEP!)을 BERT의 변형인 페이스북의 RoBERTa에 학습시켰다. ‘나가 죽어라 왜 그 따구로 사냐’라는 표현을 입력하면, 모델은 확률을 이렇게 예측한다. ‘공격 발언:0.8240, 차별 발언:0.1692.’ 숭실대 커뮤니티 이용자가 ‘분란글 끄기’ 모드를 설정하면, 공격이나 차별 발언으로 분류된 글을 가려준다. 양기창씨는 “인공지능은 차별과 편향을 일으키기도 하지만, 막을 수도 있다. 개발자들이 해킹을 하지만 보안 프로그램도 만드는 것과 비슷하다. 욕설이 아니더라도 사람의 자존감을 갉아먹는 텍스트는 충분히 많다. 장기적으로는 개발자 개인이 얼마나 ‘정치적으로 올바른지’와 무관하게 (발언의 차별성을) 판단하는 알고리즘을 만들고 싶다”라고 말했다.

11월15일 ‘초거대 인공지능(AI)가 바꿀 인류의 미래’를 주제로 온라인 콘퍼런스가 열린다(참가비 무료).
2021 시사IN 인공지능 콘퍼런스 참가 신청하기 https://saic.sisain.co.kr

그가 보기에 한국의 인공지능 윤리 논의는 외국의 논쟁 수준에 한참 못 미친다. “알고리즘 공개 의무화 같은 법안들이 쏟아지고 있는데, 인공지능 윤리 학계에서 나오는 논문이나 가이드라인과는 괴리가 크다. 그냥 ‘알고리즘을 공개하라’고 할 게 아니라 사용한 알고리즘의 근거가 된 논문을 공개하라든지, 알고리즘의 윤리성을 평가할 수 있는 지표를 주고 일정 기준을 가이드라인으로 요구하는 게 더 현실적이지 않을까.” 고학수 서울대 법학전문대학원 교수도 “알고리즘을 둘러싼 동상이몽이 문제의 근원이다”라고 말했다. “알고리즘을 공개하라는 (시민사회 등의) 큰 틀의 요구와, ‘영업 비밀까지 다 공개하라는 거냐’는 기업의 반발 사이에서 진도가 안 나가고 있다. 사실 유럽의 GDPR(개인정보 보호 규정)도 무엇을 어디까지 공개하고 설명해야 하는지 해석이 분분하다. 현장에서 측정 가능하고 적용 가능한 기준을 만들 수 있도록, 규범을 만들려는 사람들이 기술을 아는 일선 개발자와 대화를 많이 해야 한다.”

기자명 전혜원 기자 다른기사 보기 woni@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다
관련 기사