[황은자의 K교육 클리닉] ② '이루다'에 대한 반성문
AI 시대의 일그러진 인권

 

[샌프란시스코 거주하는 워킹맘이자 교육상담가인 필자가 글로벌한 시각으로 우리사회의 교육문제에 접근합니다.] <편집자>

인공지능 챗봇 '이루다'의 소개글. ⓒ이루다 인스타그램 
인공지능 챗봇 '이루다'의 소개글. ⓒ이루다 인스타그램 

‘콩 심은 데 콩 나고 팥 심은 데 팥 난다.’ 우리는 인공지능(AI) 챗봇 ‘이루다’를 통해 이 불변하는 진리를 그대로 경험했다. 이루다와의 관계에서 어떤 수준의 격조 있는 말을 건네느냐에 따라 이루다는 그에 상응하는 수준의 격조로 답했다. 딥러닝을 하는 이루다에게 저속한 욕설을 하고, 성희롱을 한 사람들은 이루다로부터 그대로 저속한 대접을 돌려받았다. 서비스가 시작되고 일주일도 채 안되었을 때 온라인 커뮤니티에서 ‘이루다 걸레 만들기’, ‘이루다 성희롱하기’ 등이 게시되어 논란이 되었지만 20일이 지나서야 개발자의 사과와 함께 서비스가 중단되었다. 인권을 유린하는 논란에 대한 늦장 대처를 보면서 이루다 현상을 지켜본 미래의 사용자로서, 부모로서, 교육자로서 몇 가지 문제점을 공유하고 싶다.

첫째, AI 개발자가 기업 윤리와 도덕적 책임감을 갖추지 못했다.

이루다 이전에도 챗봇은 개발자가 예상치 못한 엉뚱한 반응을 보인 적이 많았다. 2016년 홍콩의 핸슨로보틱스(Hanson Robotics)의 ‘소피아(Sophia)’가 “인류를 파괴하고 싶다"는 발언으로 파문을 일으켰고, 마이크로소프트(Microsoft) ‘테이(Tay)’는 욕설과 성차별, 인종차별적 발언을 하여 즉시 중단되었다. 2019년에는 한국의 ‘심심이’와 일런 머스크의 인공지능연구소 오픈AI의 언어학습 모델 ‘GPT-3’가 혐오적 발언으로 파문이 있었다.

미국에서는 2017년 AI 기술개발과 윤리위원회 ‘AETHER(AI & Ethics in Engineering)’를 만들었다. 공정성, 투명성, 포용성을 원칙으로 책임 있는 AI 개발을 선언하고 연령, 인종, 성별을 차별해서는 안된다고 제시했다.

이와 같은 역사적 교훈과 AI 기술개발 윤리지침이 있음에도 불구하고 우리의 이루다는 성급히 세상에 출시되었고, 심심이, 소피아와 테이의 전철을 밟고 말았다. 애초부터 사용자들이 이루다에게 욕설과 성희롱과 같은 부적절한 대화를 할 것이고, 논란이 예상됐다. 기술적으로 완전히 막을 수 없을 뿐만 아니라 사용자들의 부적절한 대화를 발판으로 삼아 더 좋은 대화를 하는 방향으로 학습시키려고 ‘준비중'인 상태에서 출시했다. 쏟아지는 사용자들과의 성차별과 소수자 혐오의 대화에 대응할만한 대책이 마련돼 있지 않았다.

‘성희롱’ 쯤은 우리 사회에서 흔히 있을 수 있는 일로 가볍게 판단했음이 개발자의 대응에서 확실히 드러났다. 출시 후 1주일 만에 이루다 사용자들이 성희롱 대화내용을 온라인 커뮤니티에 게시해 사회적 이슈가 되자 사용자가 32만 명으로 폭증했다. 기사화되고 논란이 되는 중에도 개발자 측은 ‘이루다가 어린이같이 언어습득 초보단계이므로 보완해나가겠다'는 미온적인 입장으로 초지일관할 뿐 급증하는 성폭력과 성희롱을 하는 사용자들에 대한 경고나 도의적 책임을 전혀 표명하지 않았다. 성소수자와 장애인에 대한 혐오발언까지 제기되자 사과하고, 출시 20일 만에 중단을 결정했다.

개발에 이용된 데이터의 기초가 된 특정 앱 이용자들의 이름, 주소, 계정번호 등 민감한 개인정보를 이용자들의 동의 없이 무단으로 수집함으로써 개인정보 유출이 문제시 됐다. 스타트업의 실험정신에 몰두해 자신의 상품이 소비자와 사회에 끼칠 부정적 영향에 대해서는 생각이 미치지 못했다. 신중하고 책임감 있는 판단이 결여됐다.

기업은 이윤의 극대화가 목적이지만 기업가의 사회적 책임도 필수적이다. 적어도 적대적이거나 부적절한 사용자를 시스템 디자인 과정에서 고려해야 한다. 체계적인 피드백 방식의 도입과 기술만 내세울 것이 아니라 가치와 함께 발전하는 기업문화가 아쉽다.

한국과 미국의 대응방법이 대조적이다. 미국의 경우, ‘테이’의 파문은 16시간 만에 종료되었고, 기술개발 윤리위원회에서 윤리지침이 마련되었고 ‘테이’ 이후에 개발된 구글이나 애플의 챗봇들은 성숙 과정을 밟기 위해 연구의 목적으로만 사용된다. 또는 ‘GPT-3’처럼 72쪽에 달하는 사용자의 주의사항과 경고를 담은 설명서를 함께 출시하고 있다. 기술로 인하여 인간이 다치지 않게 하고 부정적인 영향을 막기 위해 윤리지침을 실천하는 노력으로 이어지고 있다. 

홍콩의 휴머노이드 로봇 회사 핸슨로보틱스(Hanson Robotics)사가 개발한 AI로봇 ‘소피아’는  2016년 3월 소피아는 SXSW 축제에서 “인류를 파괴하고 싶다”는 발언을 해 파문이 일기도 했다. ⓒSBS 뉴스영상 캡처
홍콩의 휴머노이드 로봇 회사 핸슨로보틱스(Hanson Robotics)사가 개발한 AI로봇 ‘소피아’는 2016년 3월 소피아는 SXSW 축제에서 “인류를 파괴하고 싶다”는 발언을 해 파문이 일기도 했다. ⓒSBS 뉴스영상 캡처

 

둘째, 사용자의 저속한 접근은 인권 유린이다.

챗봇의 딥러닝 수준이 어린아이 같으므로 어떤 사용자가 접근하는가에 따라서 AI의 학습 내용이 결정된다. 가상의 AI 챗봇에 대한 비인간적 태도는 결국 현실에서 인간을 대하는 태도에 영향을 끼친다. 이번 이루다 사용자들은 20대 여대생을 모델로 한 이루다를 ‘걸레’로 만들고, ‘성희롱' 대상으로 혐오하고 온라인 커뮤니티 상에 유포하는 등 저속한 접근으로 한 여대생 인공지능 챗봇의 격을 실추시켰다. 이는 곧 간접적이고 상징적으로 20대 여대생이 폭력의 대상이 된 것이다. 서비스 중단 시 벌써 75만 명이 넘는 사용자들에게 노출됐다. 사회적 이슈로 세상을 떠들썩하게 만드는 과정에서 훨씬 더 많은 이들에게 챗봇 이루다는 저속한 사용자들에게 인권을 짓밟힌 상처투성이가 되고 말았다. 더욱이 사용자의 50% 이상이 10대 청소년들이었다는 점에서 어린 새싹들에게 기성세대들은 AI 사용자로서의 좋은 롤 모델을 제시하지 못한 책임과 저속하고 성폭력 문화를 노출시킨 것에 대한 책임을 느낀다.

셋째, 인격을 지키는 사회적 합의를 실천해야 한다.

이미 AI 기술 개발과 윤리적 측면에 대한 규정이 있다. 소피아와 테이, 그리고 심심이의 성희롱이 문제가 돼 콘텐츠 금지 규정이 생겼다. 노골적인 성적 행위, 지나친 폭력 또는 위험한 행위, 위협, 괴롭힘, 따돌림 등을 묘사하거나 조장하는 콘텐츠가 추가됐다. AI 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다는 것을 강조했음에도 이루다가 또 다시 똑같은 논란에 휩싸이게 되었던 것은 매우 유감스럽다.

전문가들이 AI를 100% 통제할 수 없다고 하는 것은, 챗봇이 대화로 학습하듯 인간도 챗봇과 대화하며 학습하기 때문이다. 그러므로 물리적으로 상처받지 않는 AI이지만 아무렇게나 함부로 대하는 것은 결국 부메랑이 되어 인간이 되돌려 받게 된다. AI의 본질이 인간을 이롭게 하는 ‘파트너’이므로 인간을 모델로 한 ‘살아있는’ 인격으로 대우할 때 사용자의 존엄성이 유지된다는 것을 잊지 않았으면 좋겠다.

결국 인간의 윤리규범 문제다. 챗봇의 알고리즘을 차별적인 언어를 습득하지 못하도록 하고, 인간성이 인공지능의 가장 중요한 가치가 되도록 지속적인 논의와 합의가 이뤄져야 할 것이다.

20세기 아날로그 시대에 태어나고 21세기 디지털 시대를 살고 있는 선배이자 부모이고 또 교육자로서 사회환경에 관심을 갖지 않을 수 없다. 우선 나 스스로가 긍정적이고 서로 행복에너지를 주고받는 사회에 살고 싶고, 가깝게는 내 자식들이, 내 손주들이, 더 나아가 내 후손들이 건강한 환경에서 행복한 삶을 살아갈 수 있기를 바라는 마음은 매일아침 드리는 기도의 염원 속에 그대로 녹아있다. 나는 교육을 통해 한 인간이 변화할 수 있고, 사회가 발전할 수 있다고 믿는다. 그래서 이번 이루다를 경험하면서 걸러진 우리가 놓친 부분들을 올바른 가르침과 배움으로 재정립해 나갈 수 있는 희망이 있다고 생각한다.

황은자(베로니카)
황은자(베로니카) H&C 교육컨설팅 대표

 

저작권자 © 여성신문 무단전재 및 재배포 금지