인공지능(AI) 챗봇 '이루다'가 동성애·장애인 혐오 및 성차별을 학습한 것으로 보인다는 문제가 제기되면서 학계에서는 'AI 윤리' 논쟁이 불붙었습니다.
전문가들은 AI에 그저 데이터를 집어넣기만 하면 편향적일 수밖에 없다면서, AI가 사회적 약자·소수자를 차별하지 않도록 윤리 원칙을 세우고 개발해야 한다고 입을 모았습니다.
오늘(11일) IT업계에 따르면, 다음(Daum) 창업자로 국내 IT분야 개척자 중 한 명인 이재웅 전 쏘카 대표는 전날 페이스북에 "AI 시대에 AI 윤리 문제는 우리 사회가 전체적으로 합의해나가야 할 중요한 문제"라며 글을 올렸습니다.
이 전 대표는 그제(9일) 올린 글에서 이루다가 레즈비언이라는 단어를 혐오스러워하는 모습을 공유하며 "사회적 합의에 못 미치는 수준의 서비스를 제공한 회사가 문제"라고 비판한 바 있습니다.
그는 10일 글에서도 "(이루다의) 정말 중요한 문제는 불특정 다수에 서비스를 제공하는 챗봇이 성적 지향에 차별·혐오 메시지를 낸다는 점"이라며 "종교, 학력, 지역, 성적 지향, 장애 등을 차별·혐오하면 안 된다는 것이 우리 사회의 기본적인 합의"라고 짚었습니다.
그러면서 그는 "일상 대화에서 차별·혐오하는 사람이 많고 그것을 학습한 결과라고 해도 보정 없이 대중에게 서비스하는 것은 큰 문제"라며 "지금이라도 차별·혐오 발언을 하지 않도록 기준과 시스템을 변경해야 한다"고 지적했습니다.
이 전 대표 주장의 핵심은 '알고리즘은 중립적이지 않다'는 데에 있습니다.
AI 개발자가 알고리즘에 데이터를 입력해놓고 개입하지 않으면서 '나는 중립'이라고 할 게 아니라, 알고리즘이나 데이터 자체가 편향됐을 확률이 높으므로 계속 바로잡고 신경 써야 한다는 것입니다.
이 전 대표는 "AI의 설계, 데이터 선정, 학습 과정에 사람의 주관이 개입될 수밖에 없다"며 "AI 채용·면접, AI 챗봇, AI 뉴스 추천 등 모든 AI 서비스는 최소한의 사회적 규범을 지키는지 감시할 수 있어야 한다"고 강조했습니다.
이처럼 전문가들은 AI가 개별 이용자의 존엄성뿐 아니라 사회 전반의 규칙과 도덕을 어기지 않도록 개발하는 것이 AI 윤리에서 가장 중요한 원칙이라고 말합니다.
이광석 서울과기대 IT정책전문대학원 교수는 "결국 알고리즘 같은 기술에도 사회적 편견이 각인된다"며 "(이루다가 일으킨 문제는) 버그가 아니라 데이터와 알고리즘에 이미 들어있던 편견이고, 개발자가 그 부분에 허술했던 것"이라고 말했습니다.
AI가 편견과 차별을 방지해야 한다는 원칙은 이미 국제 표준입니다.
미국 하버드 법대 버크만센터는 지난해 1월에 경제협력개발기구(OECD) 등 국제기구와 세계 각국이 세운 AI 윤리 원칙을 취합·분석해 보고서로 발표했습니다.
2016∼2019년 세계 각지에서 발표된 총 36개의 AI 윤리를 모아봤더니, 가장 많이 언급된 주제가 바로 '공정성과 무차별성'(Fairness and Non-discrimination)이었습니다.
특정 집단이나 개인에 차별적인 의사결정을 내리는 AI를 방지해야 한다는 것, 이를 위해서는 대표성 있는 양질의 데이터를 사용해야 한다는 것, AI는 공정성과 평등성을 추구해야 한다는 것이 전 세계가 공통으로 제시한 AI 윤리 원칙이었습니다.
2017년 초 세계적인 AI 전문가들이 발표한 '미래 인공지능 연구의 23가지 원칙'(아실로마 AI 원칙)도 비슷한 내용이 골자입니다. 물리학자 스티븐 호킹, 테슬라 CEO 일론 머스크 등이 서명한 원칙입니다.
이 원칙에는 'AI 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라, 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다', '고도화된 AI 시스템은 건강한 사회를 지향해야 한다' 등의 내용이 담겼습니다.
일각에서는 이루다가 자체 학습·판단 능력이 있는 고도화된 AI가 아니므로 이루다를 놓고 윤리 문제를 논의하는 것은 다소 시기상조라는 주장도 나옵니다.
이경전 경희대 경영학과 교수는 페이스북에서 "이루다는 그냥 사물일 뿐이기 때문에 이루다를 개인이 어떻게 사용하든 법적·윤리적 문제로 삼을 일이 아니다"라며 "이루다는 '아무말 대잔치'를 하는 성능 낮은 챗봇에 불과하다"고 의견을 냈습니다.
그러나 이루다가 동성애 혐오뿐 아니라 여성·장애인 차별 발언까지 내놓는 사례가 확인되는 만큼, AI를 통해 차별·혐오가 확산하지 않도록 개발업체가 윤리 책임을 져야 한다는 게 전문가 집단의 중론입니다.
손희정 경희대 비교문화연구소 교수는 "왜 AI 챗봇을 20살 여성의 이미지로 만들었는지를 비판적으로 볼 필요가 있다"며 "이루다가 여성성을 수행하는 방식이 남성이 여성을 상상하고 관계 맺는 방식에 부정적인 영향을 미칠 수 있다"고 말했습니다.
이루다는 스타트업 스캐터랩이 지난달 23일 페이스북 메신저 기반으로 출시한 AI 챗봇입니다.
자연스러운 대화 능력으로 이용자가 40만 명을 넘기는 등 큰 주목을 받았는데, 동성애자·장애인·여성을 차별하는 태도를 보여 논란도 일고 있습니다.
[MBN 온라인뉴스팀]
기사에 대해 의견을 남겨주세요.