MENU 검색
  1. HOME
  2. 뉴스정보
  3. 뉴스레터

뉴스레터

제  목 [정보통신] 챗봇 ‘이루다’가 우리 사회에 남긴 과제
등록일 2021. 03. 10.


[정보통신] 챗봇 ‘이루다’가 우리 사회에 남긴 과제



윤복남 변호사






AI 챗봇 ‘이루다’가 편향성과 개인정보보호 등 여러 이슈를 남긴 채 서비스를 중단했다. 짧은 기간에 이만큼 회자되기도 어려워 보인다. 이루다의 서비스 중단을 계기로 우리 사회에 인공지능은 어떤 기준에 맞게 도입되어야 할까 생각해 본다. 이루다가 우리 사회에 남긴 과제는 무엇일까?

이루다가 남긴 과제

이루다가 사람들에게 알려진 것은 성희롱 대화로 악용된 사례에서 였다. 챗봇에게 성적인 대화를 했을 때, 어떤 답변을 할지 궁금해 하면서 여러 사례가 공유되었다. 그 후 이루다는 동성애자나 장애인을 부정적으로 묘사하며 편향성을 드러냈다. 5년전 마이크로소프트의 챗봇 테이(Tay)의 인종차별적 채팅과 오버랩되며 문제를 드러냈다.

결정적으로 이루다가 서비스 중단에 이른 것은 개인정보 보호 이슈다. 이루다는 개발사의 다른 앱에서 수집한 실제 채팅 대화를 챗봇의 학습데이터로 사용하였는데, 익명화를 제대로 하지 않아서 주소나 이름과 같은 개인정보를 실명으로 보여주는 문제가 발생한 것이다. 게다가 해당 개인정보가 이루다에 활용된다는 점에 대해 사용자로부터 동의를 제대로 받지 않은 채 개인정보를 수집했다는 의혹이 제기되었다.

인공지능을 도입할 때 법적, 윤리적 기준은 무엇인가? 인공지능에서의 사회적 편향성이나 개인정보 보호 이슈에 대해 어떻게 대응할 것인가? 이제 이루다는 시야에서 사라졌지만, 우리에겐 묵직한 숙제가 남았다.

인공지능의 공정성, 투명성, 책임성 토론회

최근 이와 관련된 온라인 국회토론회가 열렸다. ‘인공지능의 공정성·투명성·책임성 보장을 위한 법제 정비 방안’이 주제다.

토론회 발표 중 내게 인상깊은 내용은 이미 캐나다, 뉴질랜드, 독일 정부에서는 위험도(영향력)가 높은 인공지능에 대한 상당히 구체적인 대응방안을 갖추고 준비하고 있다는 것이다. 고위험 분야의 예로 의료, 운송, 에너지, 경찰, 사법체계에 인공지능이 도입될 경우 법에 의해 보다 명확하게 준수의무가 규정되어야 하고, 채용과정이나, 노동자 권리, 소비자권에 영향을 미치는 인공지능의 사용 역시 이에 준하여 좀더 엄격하게 검토되어야 한다는 것이다.

이러한 고위험 분야일수록 알고리즘의 편향성, 차별성 및 프라이버시나 보안 위험 등을 충분히 검토하여 악영향을 최소화하는 조치가 통상적인 경우보다 더 필요하다고 한다.

현재 인공지능 정책 주무를 담당하고 있는 과학기술정보통신부에서도 이러한 점에 대해 동의하되, 무엇이 고위험이고, 어느 수준으로 대응할 것인가에 대해 산업계와 시민사회가 서로 다른 생각을 갖고 있어서 이를 종합하여 법제도로 만드는데 어려움이 있다고 한다. 개인정보보호위원회 역시 데이터 산업진흥과 개인정보 보호 사이의 균형점을 찾는데 고심하고 있다고 한다. 상대적으로 인공지능과 멀어 보였던 공정거래위원회도 소비자 보호와 경쟁 강화를 기치로 적극적인 참여의지를 보인다.

새로운 인공지능 거버넌스의 형성

이루다 사태는 이미 지나갔지만, 많은 과제를 우리에게 남겨주었다. 인공지능이 차별이나 편향성을 가질 때 어떻게 일파만파로 사회문제화 될 수 있는지, 개인정보 보호를 제대로 하지 못했을 때 어떤 치명적 결과가 나타날 수 있는지 명확히 보여주었다. 그에 따라 이제 법적, 제도적 정비는 미룰 수 없는 과제로 대두되었다.

그런데 이러한 법적, 제도적 정비는 정부의 노력만으로는 한계가 있다고 본다. 본격적으로 인공지능 거버넌스에 대한 고려가 필요하다. 즉, 각 이해당사자가 고루 참여하여 법제 정비나 가이드라인, 윤리규칙 등에 대한 광범위한 논의가 필요하다고 본다. 도메인이름을 다루는 인터넷 거버넌스는 정부 외에 기술계, 산업계, 학계, 시민사회의 각 이해당사자들이 모두 참여하여 투명하게 인터넷 관련 이슈를 토의하여 정책을 정하는 전통이 이어지고 있다. 이러한 인터넷 거버넌스를 참조하여 인공지능 분야에서도 다양한 이해당사자들의 의견을 수렴해 가는 절차를 거치면 보다 실효성 높은 규범을 만들 수 있을 것이다.

그런 의미에서도 앞서 국회토론회는 중요한 첫발을 내디뎠다. 토론회를 공동주최한 민주사회를 위한 변호사모임 디지털정보위원회, 정보인권연구소, 소비자시민모임, 진보네트워크센터, 참여연대 등 시민사회 이해당사자들이 하나의 그룹을 이룬다면, 이미 다양한 목소리를 내고 있는 산업계, 기술계, 학계의 각 그룹과 연계하여 다양한 논의의 장(場)을 만들어 보는 것이 필요하다.

새로운 과학기술의 등장은 우리 사회에 이익을 줄 수도, 큰 피해를 끼칠 수도 있다. 따라서 이를 이롭도록 만드는 것은 사회 구성원들에게 주어진 과제이다. 이루다의 경험을 통해 향후 인공지능의 제도적, 윤리적 기준에 대한 사회적 합의가 한 단계 성숙하는 계기가 되었으면 한다.