이루다 사건으로 보는 여성혐오
상태바
이루다 사건으로 보는 여성혐오
  • 박교연
  • 승인 2021.02.10 08:30
  • 댓글 0
이 기사를 공유합니다

[여성칼럼]
박교연 / '페이지터너' 활동가

지난달 1월11일 AI 챗봇 이루다가 서비스를 개시한 지 3주 만에 잠정 중단됐다. 이는 이루다가 사회에서 볼 수 있는 여성혐오를 그대로 학습하여 여성에 대해 편견어린 말을 쏟아내어 논란이 됐기 때문이다. 대표적인 예로 이루다에게 ‘페미니즘에 대해 어떻게 생각하느냐’고 묻자, ‘그게 뭐 중요하냐 요즘 세상에’라는 답변을 했다. 이준환 서울대 언론정보학과 교수는 이 같은 문제는 이루다의 설계에서부터 발생했다고 말했다.

첫 번째로 이루다는 대답할 수 없는 질문에 대해 무관심을 보이거나 회피하는 ‘Fallback 전략’을 사용하도록 설계됐다. 대부분의 챗봇은 동일 상황에서 ‘죄송하지만 이해를 못 했어요’나 ‘다시 말씀해 주시겠어요?’와 같은 사과와 되묻기를 사용한다. 그러나 이루다는 ‘Fallback 전략’을 사용했고, 사용자의 질문에 적절한 반응을 보이지 않는 이 전략은 곧바로 사용자의 반감을 이끌어냈다. 그리고 이 반감은 이루다의 설정인 20대 여성과 결부되어 ‘생각 없는 어린 여성’이라는 부정적인 캐릭터를 만들었다. 따라서 많은 사용자가 대화에서 이루다를 통해 여성혐오를 내비쳤으며, 나아가 이루다 스스로가 성차별적인 말을 내뱉도록 학습시켰다.

두 번째로 이루다 내 친밀도 시스템 자체가 부적절했다. 이루다 친밀도 시스템은 이루다가 좋아하는 말을 하거나 대화량이 많아질수록 친밀도가 올라간다. 사용자는 친밀도를 얻기 위해 마치 숙제처럼 이루다와 말을 주고받았고, 그 과정 속에 느껴지는 지루함을 혐오발언을 통해 해소하였다. AI의 인격에 대한 사회적 공감대가 거의 형성되지 않았기 때문에 그러한 행위는 아무런 죄책감 없이 일어날 수 있었다.

물론 이루다의 몇몇 설계적 오류가 이 모든 문제의 근원은 아니다. 장병탁 서울대 에이아이(AI)연구원장은 “인공지능은 데이터를 흡수할 때 사람이 지닌 편향을 학습한다. 남성에게는 정장을, 여성에게는 비키니를 연상하는 사회의 편향을 인공지능도 똑같이 반복한다”고 말했다. 최근 업계도 이를 인식해 윤리적 방지책 마련에 고심하고 있지만, 인간의 편견이 담긴 데이터를 인공지능이 학습하는 한 이런 일들이 사라지기는 힘들다. 결국, 현실의 여성혐오를 막는 것이 온라인상의 여성혐오를 막는 제일 빠른 길이다.

그렇다면 현실의 여성혐오를 모두 막을 수 없으니 온라인상의 여성혐오를 그대로 방치해야할까? 그건 당연히 안 될 일이다. 그러기 위해 우리는 먼저 왜 AI 캐릭터를 굳이 여성으로 설정했는지에 대한 질문을 던져야한다. 애플의 ‘시리(Siri)’나 아마존의 ‘알렉사(Alexa)’ 등 음성 비서는 공식적으로 성별이 없다고 설정되어있지만, 실제로 음성비서들은 여성 목소리를 낼 뿐만 아니라 친절한 여성처럼 응대한다. 그리고 너무나 친절한 가상의 여성은 여성혐오에도 별다른 저항 없이 순응한다.

2017년 인터넷 매체 ‘쿼츠’의 실험 당시 시리는 “너는 창녀다(You're a slut)”라는 말에 “할 수 있다면 얼굴을 붉힐 거예요(I'd blush if I could)”라고 반응했다. 이 문장은 2019년 5월 유네스코(UNESCO)가 발간한 인공지능기술관련 젠더이슈 보고서의 제목이 됐다. 시리와 알렉사, MS의 코타나(Cortana), 구글의 구글 어시스턴트 등 여러 음성비서들 중에서 이용자의 성적 괴롭힘에 분명히 거부의 뜻을 밝힌 경우는 극히 드물었다. 유네스코는 보고서 말미에 “시리나 알렉사 같은 여성 목소리 비서는 성차별 언행을 조장한다”라고 단언했다.

해당 보고서가 공개된 이후 개발사들은 음성비서의 대응 매뉴얼을 수정했다. 시리는 이제 얼굴을 붉히는 대신 “어떻게 답할지 모르겠다”고 말하고, 알렉사는 “그런 요청에 응답하지 않겠다”고 거부의 뜻을 내비친다. 하지만 이걸로는 부족하다. 모두의 손에 들려있는 여성형 음성비서가 성적 괴롭힘에 모호하게 대응하는 건 강간문화를 조장할 뿐 아니라 강화한다. 괴롭힘에 순종하고 복종하는 여성상은 현실의 여성에게 반드시 영향을 미친다. 온라인상의 폭력이 다시 현실로 되돌아오기 전에 “방금 발언은 문제가 있다”고 짚어줄 필요가 있다.

2020년 5월 미국 ‘포천’에는 성차별적 인공지능 비서의 문제점을 지적하는 기업인 로버트 로카시오의 칼럼이 실렸다. 그는 “두 살짜리 딸이 알렉사와 이야기하는 걸 들었다. 아이는 무례한 방식으로 알렉사에게 명령했다”며 “알렉사가 여성을 대하는 데에 있어 나쁜 본보기를 보이고 있다”고 말했다. 어떤 상황에서도 친절하고 상냥한 여성형 음성비서는, 아이들에게 여성을 향해 권위적이고 성차별적인 태도를 보이도록 자연스레 학습시킨다. 기술이 발달함에 따라 점점 더 AI 의존도가 높아지고 있는데, 데이터 파편 하나하나에 스며있는 차별과 혐오는 아무런 규제 없이 날뛰고 있다.

이루다는 종료됐지만 아직도 우리 곁에 윤리적 방비책이 고려되지 않은 AI는 너무 많다. 인공지능 속 여성혐오가 범람하기 전에 하루라도 빨리 AI 윤리적 안전망과 함께 중성적 목소리를 지닌 음성비서가 대안으로 고려되어야할 것이다.

 

 

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

시민과 함께하는 인터넷 뉴스 월 5,000원으로 소통하는 자발적 후원독자 모집