한국사회 혐오·차별 거울 된 여성 AI
‘이루다 사태’가 남긴 질문 ②
AI, 어떻게 대해도 사용자 자유?
“AI 향한 혐오·차별, 막을 순 없지만
방치하면 인간에게 돌아와...
인간-AI, 서로에게 점점 더 영향 미칠 것”

ⓒVectorstock
인간과 AI는 점점 더 서로에게 많은 영향을 미치게 될 것이다. 인격체가 아니어도, AI를 함부로 대해선 안 될 이유라고 전문가들은 말했다. ⓒVectorstock

[좋든 싫든 AI와 함께 살아가야 하는 시대다. ‘이루다 사태’가 던진 질문들은 그래서 가볍지 않다. 왜 AI는 ‘젊은 여성’이어야 하는지, AI가 잘못된 학습으로 편향을 강화하는 문제를 어떻게 해결할지, AI와 인간의 상호작용은 어떠해야 하는지 등 논의가 본격적으로 시작됐다.]

 

“내 인형 내가 때리는데 뭐 어때요?” ‘이루다 사태’를 두고 나온 반응이다. 피 흘리지도 상처받지도 않는 AI를 함부로 대하면 안 될까?

윤리의 문제를 떠나서 연구자들은 AI를 향한 악의적 공격을 100% 막는 건 불가능하다고 말한다. 

“AI가 공격을 받으면 최대한 답하지 않거나 말을 돌리도록 디자인한다. 그래도 작정하고 공격하는 것까지 막긴 힘들다. 윤리 기준을 아무리 강화해도 문제는 생길 수 있다. 현재로선 문제가 생기면 빨리 보완하는 게 낫다. AI는 ‘나쁜 것’도, ‘좋은 것’도 매우 빠르게 학습한다.” (통신사 AI 스피커 사업팀장 P씨)

“구글, 페이스북 같은 빅테크 기업도 잡담형 챗봇을 개발하지만, 기술적으로 챗봇이 생성하는 문장을 100% 검열할 수 없다. 이런 상황에서 대중에 공개하면 위험한 결과를 초래할 수 있으므로 연구 목적으로만 공개하는 것으로 알고 있다.”(S연구원)

2016년 마이크로소프트가 선보인 AI 챗봇 ‘테이(Tay)’. 대중에 공개하자마자 온갖 여성혐오적·모욕적 메시지가 쏟아졌다. 그 데이터를 학습한 테이도 곧 혐오·차별 메시지를 내놓기 시작했다. ⓒ온라인 화면 캡처
2016년 마이크로소프트가 선보인 AI 챗봇 ‘테이(Tay)’. 대중에 공개하자마자 온갖 여성혐오적·모욕적 메시지가 쏟아졌다. 그 데이터를 학습한 테이도 곧 혐오·차별 메시지를 내놓기 시작했다. ⓒ온라인 화면 캡처

‘AI는 인격체도, 동물도 아니니 어떻게 대해도 사용자의 자유’라는 주장도 있다. AI 연구자들은 그러한 행위가 결국 부메랑처럼 인간에게 돌아올 수 있다고 경고했다.

“인간의 기분을 맞춰주기 위해 개발된 챗봇이라고 아무렇게나 대해선 안 된다. 저질적인 이해와 접근은 기술의 가치만 떨어뜨린다.” AI 분야 국제표준화 작업반장인 조영임 가천대 컴퓨터공학과 교수의 말이다. “AI의 본질은 인간을 이롭게 하는 ‘파트너’다. 애초에 인간을 모델로 한 ‘살아있는’ 무언가이니 인격적으로 대우해야 한다.”

블록체인으로 AI를 연결하는 ‘AI네트워크 프로젝트’를 진행해온 김민현 커먼컴퓨터 대표는 “AI를 단순 ‘스트레스 해소 기계’로 치부하는 일은 개인적·사회적 인간성을 손상할 수 있다”고 했다. “챗봇이 대화로 학습하듯 인간도 챗봇과의 대화로 학습한다. 내가 뭘 보느냐에 따라 ‘유튜브 추천’ 목록이 바뀌지만, 추천 알고리즘이 나를 바꾸기도 한다. AI는 우리에게 점점 더 많은 영향을 주게 될 것이다. 게다가 사람을 닮은 형상, 사람이 정성 들여 만든 기계를 막 대하는 것은 윤리적이지 않다고 본다.”

P팀장은 “‘사용자가 AI를 어떻게 대하든 개인의 자유 아니냐’는 주장도 있는데, 궁극적으론 그런 미래가 올 것이다. AI 서비스는 각자의 ‘취향’에 맞춰 완전히 개인화될 것이다. 그럼 사회적으로 용인되지 않는 ‘취향’은 어떻게 할까. 여기에 대해서는 훨씬 많은 논의가 필요하다”고 덧붙였다.

 

 

 

저작권자 © 여성신문 무단전재 및 재배포 금지