챗봇 '이루다'의 윤리 언급하면서
사회 윤리의식 문제점 거론 안해
2007년 국회 발의 아직도 표류중인
'차별금지법' 지금 우리에 필요한때
'코로나 블루', 외로움과 사회적 고립감이 깊어지는 상태에서 작년 말에 서비스를 시작한 인공지능(AI) 챗봇 '이루다'가 선풍적인 인기를 끌었다. 2주 만에 이용자가 75만명에 달했다. 개발사는 '인간과 자유롭게 대화할 수 있는 AI가 앞으로도 소외된 사람, 사회적 약자의 마음을 위로해주는 따뜻한 대화 상대'가 되길 바랬지만 곧바로 성희롱, 소수자 차별, 편견 논란에 휩싸였다. 20대 여성 대학생이라는 캐릭터는 짓궂은 일부 이용자들의 놀잇감이 되었다. 성적 단어를 금지어로 지정해 필터링하였지만 이를 우회해 성희롱 대상으로 삼거나 성적인 대화를 나누는 방법이 커뮤니티에 공유되기도 했다. 결국 '이루다'는 대화 중 장애인, 성소수자를 혐오하는 발언을 내뱉으면서 3주 만에 서비스를 중단했다. 이용자가 채팅 창에 "여성 인권은 중요하지 않다는 소린가?"라는 물음에 이루다는 "난 솔직히 그렇게 생각함"이라고 답하고, 레즈비언에 관해 묻자 "진짜 싫다", "혐오스럽다"고 답한다. "네가 장애인이라면 어떻게 할 건지" 묻자 "그냥 죽는 거지"라고 답했다고 한다.
'이루다'는 인간 같은 인공지능 챗봇을 만드는 것이 얼마나 어려운 것인가를 보여줌과 동시에 우리 사회의 은밀한 곳에 내재한 차별의식을 드러냈다고 할 수 있다. '이루다'는 '연예의 과학'이라는 연예 상담 사이트에서 축적한 100억건의 남녀 대화를 기반으로 만들어졌다고 한다. 즉 남녀 간의 대화를 학습하면서 말을 배웠는데 우리 사회의 일상 언어 속에 잠재 되어 있는 편견과 차별의식을 드러낸 것이다.
성적 단어를 금지어로 지정해 필터링했음에도 불구하고 성희롱 대상이 되었다는 것은 개발사가 충분한 기술력을 갖추지 못했다는 것을 반증한다. 개발사가 인공지능이 윤리적인 문제에 직면하지 않도록 충분히 고려하고 개발했어도 현실 세계의 풍부함을 당해내기 어려웠을 것이다. 앞으로 개발사는 윤리적인 의식을 가진 AI를 개발하겠다고 하고 있으나 사실 이것은 쉽지 않은 문제이다. 마이크로소프트(MS)는 2016년 AI 챗봇 '테이'를 출시했으나 인종차별 데이터 학습 논란으로 16시간 만에 운영을 중단한 바 있다. 물론 오픈 AI에서 개발하여 작년에 공개한 GPT-3는 인간과 같은 작문 실력을 보여주어 화제가 되었다. 3천만명이 사용하는 공개 채팅사이트에서 GPT-3 봇은 1주일 동안 수백개의 글을 올렸지만 인공지능이 작성했다고 의심받지 않았다. 봇이 작성한 댓글(응답) 대부분은 해롭지 않았고 자살을 주제로한 한 글에는 5-6 단락으로 자기를 지지해 준 부모를 생각하면 자살을 포기하게 된다는 글을 남기기도 했다. 현재로는 GPT-3가 이러한 윤리적인 문제를 포함하여 인간과 비슷한 작문 실력을 보여주고 있지만, 아직 공식적인 서비스를 시작하지 않고 여전히 테스트 중에 있다. 인공지능이 건전한 상식, 윤리적인 의식을 갖고 인간과 같이 언어를 구사하는 것이 그만큼 어렵다는 것을 반증하고 있다.
'이루다' 이슈를 보면서 드는 문제점은 인공지능 윤리를 언급하면서 우리 사회의 윤리 의식은 어떻게 할 것인가에 대한 문제 제기가 없다는 것이다. '이루다'는 단지 우리 사회의 편견을 그대로 따라했을뿐이다. 2007년에 국회에서 처음 발의된 차별금지법은 여전히 표류 중이다. 인공지능이 윤리의식을 갖도록 요구하는 만큼, 우리 사회에서도 윤리의식을 갖도록 규제하는 차별금지법이 필요하다.
/이명호 (재)여시재 기획위원