• AI 챗봇 ‘이루다’의 교훈
    [서울시 이야기] "무의식적 편견의 재현"
        2021년 01월 15일 01:44 오후

    Print Friendly, PDF & Email

    AI 챗봇 ‘이루다’가 자연스레 학습한 것은 우리 사회에 만연한 ‘여성 혐오’였다

    이루다는 12월 23일 페이스북 메신저를 기반으로 출시한 AI 챗봇이다. 자연스러운 대화로 10∼20대 사이에서 크게 주목받아 3주 만에 약 80만명의 이용자를 모았다. 허나 성적 대상화, 여성혐오 발언을 쏟아내면서 사회적 논란에 휩싸였다. ‘이루다’에 대한 논란이 일자 개발사 스캐터랩은 이루다 데이터베이스(DB)와 딥러닝 모델을 폐기하겠다고 15일 밝혔다. 논란은 개인정보 유출, 데이터 관리에 소홀 문제로 흘러갔다. 하지만 이러한 현상의 원인이 과연 개발사에만 있는지 따져 볼 일이다.

    페이스북 이루다 AI

    빅데이터는 이제 익숙한 단어가 되었다. 이미 컴퓨터 공학 및 비즈니스 분야에 광범위하게 활용되고 있으며 단순 데이터가 아니라 경험적이고 심리적 측면까지 학습 가능한 상태로 활용되고 있다. 최근 입사과정에서 AI 면접도 비일비재하다. 물론 AI 면접은 인적자원을 채용하고 직무를 배치할 때 인사관리 및 채용 시 인간의 편견을 줄여 효율성과 공정성을 얻을 수 있다는 기대에서 출발했다.

    하지만 알고리즘이란 무엇인가. 결론부터 말하자면 알고리즘 내에는 인간이 가진 무의식적 편견이 재현될 위험이 상존한다. AI는 주어진 데이터에 기반해 지원자를 판단하고 채용 여부를 결정하는데 여기서 ‘주어진 데이터’ 자체가 현실을 적극적으로 반영한다는 점을 놓쳐선 안된다. 다시 말해 우리 사회에 광범위하게 펼쳐진 성차별과 혐오를 AI는 자연스레 학습한 것이다.

    ‘이루다’는 빅데이터에 기반해 이곳에 만연한 ‘여성혐오’를 적극적으로 학습했다. 물론 개발사의 관리 소홀이나 예외값 설정 등도 문제다. 하지만 보다 근원적인 문제를 고찰하면 ‘이루다’는 귀납적 추론을 하고 있으며 해당 결과를 정확히 인지하고 있었다고 볼 수 있다.

    실제로 2014년에 아마존은 자체 개발한 인공지능 채용 시스템이 자기소개서 또는 이력서 평가에서 여성 지원자에게 불이익을 준다는 것이 알려진 사실이다. 10년간 학습한 데이터에서 여자보다 남자 지원자가 많은 것을 통해 판단한 결과였다. 알고리즘 자체 편향으로 잘못된 결과를 도출하는 것도 큰 문제지만 인공지능에 의해 도출된 결과는 통계적 검증과 합리적인 계산에 의한 결과라는 사실이며, 이는 그만큼 우리 사회에 성차별과 혐오가 공공연하다는 것을 반증한다.

    결국 ‘이루다’에 내재된 여성혐오는 빅데이터로 수집된 인간의 편향, 잠재된 증오와 폭력에 기인한 것임을 시사한다. 따라서 AI의 책임이 아니라 인간의 책임이다.

    필자소개
    추계예술대학교에서 소설 창작기법을 연구했으며 성균관대 박사과정에서 현대 문학평론을 공부하고 있다. 독서코칭 리더로 청소년들과 붉은 고전읽기를 15년간 진행해왔다

    페이스북 댓글