[논평] 챗봇 ‘이루다’가 여실히 드러낸 차별의 구조,
차별금지법 제정이 시급하다
지난 12월 23일 스캐터랩의 대화형 챗봇 ‘이루다’가 출시되었다. “인간과 자유롭게 대화할 수 있는 AI가 앞으로도 소외된 사람, 사회적 약자의 마음을 위로해주는 따뜻한 대화 상대가 되길 바란다”는 개발사의 입장과는 달리 이루다는 성희롱, 혐오발언, 정보인권침해 등 온갖 문제들을 야기한 끝에 약 2주만에 운영이 중단되었다. 특히 여성, 성소수자, 장애인, 흑인 등 사회적 소수자에 대해 이루다가 편견과 혐오를 그대로 드러내는 모습은 사회적으로 충격을 안겨 줬다.
이러한 이루다의 혐오발언은 이미 2016년 마이크로소프트의 챗봇 ‘테이’가 “대량학살을 지지한다" 등의 발언을 해서 16시간만에 퇴출된 사례 등을 통해 문제가 예상되었음에도, 소수자 관련 키워드를 금지어로 할지 정도만 고민한 개발사의 안이한 대처에 일차적인 원인이 있다. 그러나 여기서 보다 주목해야 할 것은 이루다가 드러낸 혐오가 인공지능이 독자적으로 만들어낸 것이 아니라 사용자들의 혐오와 편견을 그대로 학습한 결과물이라는 것이다. 따라서 아무리 고도화된 알고리즘을 만든다 해도 구조적으로 차별이 만연한 사회 속에서 인공지능이 머신러닝을 통해 기존의 차별적 구조를 학습하는한 이루다와 같은 사태는 계속해서 발생할 수밖에 없다. 그렇기에 이 사건은 단지 한 스타트업의 개발상 실수의 문제를 넘어 인공지능이라는 매개를 통해 이 사회 전반의 차별과 혐오의 구조가 여실히 드러난 사건이며, 그에 대한 사회, 윤리, 법적 대안이 총체적으로 논의되어야 한다.
이와 관련하여 정부는 지난 12월 ‘국가 인공지능 윤리 기준’을 발표했다. 그러나 해당기준에는 “모든 인공지능은 ‘인간성을 위한 인공지능(AI for Humanity)’을 지향하고 사회적 불평등 해소에 기여해야 한다”는 미사여구만이 담겨있을 뿐 구체적인 규범이 전혀 제시되고 있지 않다. 만일 정부가 정말로 인간의 존엄성과 평등을 지향하는 인공지능을 구현하고자 한다면 선언적인 기준을 내세우기에 앞서 해야 할일은 분명하다. 바로 이 사회의 구조적인 혐오와 차별을 개선하기 위해 포괄적 차별금지법을 제정하는 것이다. 지난 2020년 11월 유엔 인종차별철폐위원회 역시 인공지능, 빅데이터 등을 활용한 인종 프로파일링의 위험성을 경고하며 가장 일차적인 대안으로 포괄적 차별금지법 제정을 권고한 것을 정부는 새겨들어야 한다.
“이루다는 이제 막 사람과의 대화를 시작한 어린아이 같은 AI입니다. 배워야 할 점이 아직 많습니다” 개발사 스캐터랩은 지난 11일 입장문에서 위와 같이 이야기했다. 그러나 교습자인 우리 사람들이 차별이 무엇이고 왜 문제인지를 확실히 알지 못한다면 인공지능의 학습 역시 제대로 이루어지지 않을 것이다. 그리고 차별금지법 제정이야말로 바로 시민들 모두가 구조적 차별의 문제를 이해하고 평등을 위한 방안들을 논의하게 하는 계기가 될 것이다. 그렇기에 이번 이루다 사태를 바라보며 우리는 다시 한번 정부와 국회에 요구한다. 지금 즉시 포괄적 차별금지법을 제정하라
2021. 1. 14.
차별금지법제정연대