구글이 인공지능(AI) 기술이 인명을 살상하는 무기를 개발하거나 감시도구로 쓰여 인권을 침해도록 하는 일에는 사용하지 않을 것이라는 내용을 핵심으로 하는 7대 윤리지침을 만들어 발표했다. 구글이 국방부 드론 계획에 참여하자 내부 임직원들의 강한 비판이 제기된 것에 대한 경영진의 화답이다.
7일(현지시간) 순다르 피차이 구글 최고경영자(CEO)가 발표한 구글의 AI 윤리지침은 무기 개발에 AI 기술을 제공하지 않고 인권을 침해하는 감시에도 쓰이지 않도록 할 것이며 인공지능이 인종과 성적, 정치적 차별하는 결정을 하지 않도록 하겠다는 내용을 담고 있다.
순다르 피차이는 구글 CEO는 "AI는 모든 문제를 해결할 순 없지만 우리 삶을 개선하기 위한 잠재력을 갖고 있다"며 "AI가 어떻게 개발되고 쓰이는 지가 미래 사회에 지대한 영향을 미칠 것이다. 인공지능 기술의 올바른 사용이 정립되도록 하는 데 책임감을 느낀다"고 말했다.
이번 윤리지침에는 '사회적으로 유익해야 한다' '인류에 피해를 끼치거나 그럴 가능성이 있는 기술은 개발하지 않겠다'는 다소 추상적 내용이 포함 돼 있는데 이는 조금이라도 사회적 논쟁을 불러일으킬 수 있는 여지가 있는 AI는 개발하지 않겠다는 의지를 공개적으로 밝힌 것으로 풀이된다.
구글의 이번 발표는 지난해 미 국방부에 인공지능 기술을 지원하는 계약(프로젝트 메이븐 참여)을 체결한 것에 대해 약 4000명 이상의 직원이 반대 탄원서에 서명하면서 시작됐다. 구글은 "비공격적 부분에만 관여한다"고 해명했지만 내부 반발이 거세 결국 국방부와 계약을 더이상 연장하지 않기로 한 바 있다.
그러나 구글이 국방부 등 정부와 계약을 하지 않겠다는 것은 아니다. 피차이 CEO는 "다양한 분야에서 정부·국방부와 계속 협업할 것"이라며 사이버 보안, 훈련 등과 같은 부문에서 계속해서 정부 및 군과 협력해 AI를 활용할 예정이라고 밝혔다.
[실리콘밸리 = 손재권 특파원]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]
기사에 대해 의견을 남겨주세요.