[AI랑 산다]
안전한 AI 모델·서비스 만들려면
개발자·기획자·경영인·투자자 등
모두 함께 감시·개선해 나가야

ⓒShutterstock
ⓒShutterstock

인공지능(AI) 챗봇 ‘챗GPT’(ChatGPT) 열풍이 거세다. 챗GPT에게 이메일을 써달라고 하거나 정보를 묻는 이들이 많아졌다. 갈수록 AI 기술을 활용한 서비스에 대한 인간의 의존도는 커질 것으로 보인다. 그 정도로 쉽고 직관적인 결과물들이 우리의 일상을 파고들고 있다.

인종차별·젠더 이슈 등 이른바 ‘민감한 질문’에 대해선 ‘AI 모델이라 자의적인 답은 어렵다’, ‘정확한 대답은 어렵다’는 식의 결과가 나오기도 한다. 여러 윤리적 기준이나 데이터 훈련의 한계 때문이다. 2018년 이후 AI 모델의 차별·편향에 대한 비판이 나오면서 개발 업체들이 선제적으로 검토·조정하고 있다. 

AI 모델들은 인간의 데이터를 재료 삼아 가중치를 계산해가며 학습한다. 인간의 편견을 더 많이 받아들이게 된다는 한계가 있다. 따라서 일반적으로는 모델에 ‘기준’을 덧입히는 조정 작업(fine-tuning)을 통해 윤리 장치를 붙여서 일반인들도 거부감없이 쓸 수 있도록 개선한다.

누가 그 ‘기준’을 정하느냐는 여전히 걸림돌이다. 달리다가 고장 난 자율주행차가 보행자와 운전자 중 누구를 보호해야 하느냐는 ‘트롤리 딜레마’가 문화권에 따라 답이 달라진다는 연구, 여성의 몸을 선정적으로 판단하는 AI 경향성에 대한 영국 가디언지의 보도에 이르기까지, 모두가 윤리적 가이드라인에 동의할 거라고 전제했던 가설에 금이 가고 있다.

가디언 연구팀은 AI 이미지 분류 모델이 남성이 상의를 탈의한 경우 선정성 점수를 낮게 매기지만, 여성 속옷을 들이대자 점수가 크게 높아졌다는 발견을 토대로, 여러 알고리즘 모델의 기저에 이미 여성 대상화가 강력하게 작동한다고 주장한다. 여성의 나체를 선정적인 ‘유해 콘텐츠’로 판단하는 원칙이 임산부의 배마저도 선정적이라고 판단하는 기준이 돼버린 셈이다.

AI 모델과 서비스에는 개발자, 기획자, 디자이너, 경영인, 투자자 등 정말 다양한 이해관계자들이 얽혀있다. 어느 한 직군에만 책임을 지울 수 없는 구조다. 그래서 사회적으로 감시하고, 함께 환경을 만들어가려는 움직임도 지속되고 있다.

구글, 마이크로소프트 등 주요 기업과 리서치 센터들은 AI 모델 가이드라인과 주요 벤치마크 데이터셋을 만드는 추세다. 마이크로소프트 연구진은 20여 년간의 선행 연구 결과를 모아 디자인 원칙을 추리고, 인간과 컴퓨터 상호작용(HCI) 연구자와 디자이너, 개발자들의 검증을 거쳐 인간-AI 상호작용 가이드라인을 수립했다. 연구진은 AI 서비스가 사용자에게 충분히 설명 가능한 형태로 설계돼야 하고, AI 시스템이 사회적 편향을 보이지 않도록 조치할 것을 강조한다. 이로써 AI 모델과 서비스를 만드는 이들에게 기준을 잘 잡고 디자인할 것을 강조한다.

개발자 대상 윤리 교육을 더 강조하는 목소리도 높아졌다. “(개발자는) 페미니즘의 비판이나 계몽, 교화의 대상이 아니라, 페미니즘을 실천해 더 정의로운 기술을 생산하는 주체”라는 지적도 나왔다(이지은·임소연, 2022, “인공지능 윤리를 넘어: 위치지어진 주체로서의 개발자들과 페미니스트 인공지능의 가능성”). 여성으로서의 사회 경험과 그로 인한 차별화된 관점을 가진 개발자들이 자신의 역량과 관점을 충분히 발휘할 수 있도록 도와야 한다는 주장이다.

해외에는 기술 자체나 서비스 제품을 꼼꼼히 따져보는 단체들이 늘고 있다. 이미지 인식 AI의 성·인종차별을 지적한 조이 부올람위니가 설립한 회사 ‘알고리드믹 저스티스 리그’(Algorithmic Justice League), 구글 AI윤리 팀에서 언어모델의 편향성을 지적한 뒤 해고된 팀닛 게브루가 설립한 ‘블랙 인 에이아이’(Black in AI)가 대표적이다. 투자받을 수 있는 모델로 발전시키는 경우도 있다. OpenAI 부사장 출신 다리오 아모데이가 설립한 ‘앤트로픽’(Anthropic)은 AI 시스템을 보다 안전하고 책임감 있게 만드는 연구를 하는 회사로, 지금까지 10억 달러(약 1조2900억원)에 달하는 누적 투자를 받았다고 한다.

챗GPT를 필두로 AI 거대 모델을 활용한 서비스가 우후죽순 생겨나고 있다. 모델을 가져다 쓸 때는 한계점을 명확히 인식하고 철저한 테스트를 거치기를 추천한다. 막상 사용자에게 결과물이 전달되는 과정에서 또 다른 혐오나 편견, 고정관념을 불러올 위험이 있기 때문이다. 기획자, 개발자, 디자이너, 의사결정자 등 모두가 윤리적 기준에 대해 충분히 질문하고, 개개인의 경험에서 비롯한 관점을 이야기해야 한다. 모델을 영리하게 쓰면서 리스크를 낮추기 위한, 정교한 기준을 만들어가야 한다.

유재연 옐로우독 AI펠로우
유재연 옐로우독 AI펠로우

소셜임팩트 벤처캐피털 옐로우독에서 AI펠로우로 일하고 있다. 인간-컴퓨터 상호작용 분야에서 박사과정을 수료했고, 주로 인공지능 기술과 인간이 함께 협력해가는 모델에 대해 연구하고 있다. <AI랑 산다>는 장밋빛으로 가득한 AI 세상에서, 잠시 ‘돌려보기’ 버튼을 눌러보는 코너다. AI 기술의 잘못된 설계를 꼬집기 보다는, 어떻게 하면 AI 기술과, 그 기술을 가진 이들과, 그리고 그 기술을 가지지 못한 자들이 함께 잘 살아갈 수 있을지 짚어 본다.

① 인공지능이 나에게 거리두기를 한다면
http://www.womennews.co.kr/news/articleView.html?idxno=220379

② 기계가 똑똑해질수록 인간은 바빠야 한다
http://www.womennews.co.kr/news/articleView.html?idxno=221310

③ 인간이 AI보다 한 수 앞서야 하는 이유
http://www.womennews.co.kr/news/articleView.html?idxno=222353

④ AI에게 추앙받는 사람
http://www.womennews.co.kr/news/articleView.html?idxno=223684

⑤ 메타버스서 공포증 극복·명품 쇼핑...‘비바 테크놀로지 2022’ 참관기
http://www.womennews.co.kr/news/articleView.html?idxno=224824

⑥ 월경·난자 냉동... 79조 펨테크 시장 더 커진다
http://www.womennews.co.kr/news/articleView.html?idxno=225977

⑦ 사람을 살리는 AI 솔루션이 필요하다
http://www.womennews.co.kr/news/articleView.html?idxno=227124

⑧ 이상행동 탐지·채팅앱 신고...AI로 스토킹 막으려면
http://www.womennews.co.kr/news/articleView.html?idxno=228068

⑨ 일하다 죽지 않게 만들 기술이 필요하다
http://www.womennews.co.kr/news/articleView.html?idxno=228998
⑩ ‘AI 예술가’는 이미 현실, 이제 창작자들이 연대해야
http://www.womennews.co.kr/news/articleView.html?idxno=229928
⑪ 요즘 대세 ‘챗GPT’ 이후의 AI는 어떻게 진화할까
http://www.womennews.co.kr/news/articleView.html?idxno=230850

⑫ ‘박사학위자의 결혼 조건은?’ 챗GPT에 물어보니
http://www.womennews.co.kr/news/articleView.html?idxno=231690

⑬ 편견·차별 없는 AI 만들려면? 챗GPT가 던진 질문 
http://www.womennews.co.kr/news/articleView.html?idxno=233074

저작권자 © 여성신문 무단전재 및 재배포 금지