사회
생성형 AI로 만든 '허위 제작물'…"기술 제공자도 '유연한 규제' 해야"
입력 2024-03-03 08:53  | 수정 2024-03-03 10:37
MBN 취재진과 인터뷰 중인 김정화 서울서부지검 검사
생성형 AI에 대한 일반적인 규제 법률은 없어
미국·유럽연합, 인공지능 생성물에 표시·고지 의무
[가상의 상황]
A 씨는 평소 좋아하던 연예인 B 씨의 선량한 이미지를 만들기 위해 C 사가 제공하는 딥페이크 시스템을 활용하기로 했다. 딥페이크 시스템을 활용해 B 씨가 아프리카에서 봉사활동을 하는 사진을 만들고 SNS로 유포했다.

-출처: 김정화·임동민·차호동, "생성형 인공지능 기술의 규제 방향에 대한 입법론적 고찰" 「형사법의 신동향 통권(대검찰청 논문집)」 제80호(2023)


생성형 AI 기술 중 하나인 딥페이크를 활용해 거짓 사진을 만들고 유포한 A 씨와 이런 딥페이크 기술을 제공한 C 사는 법적 책임이 있을까요?

'가짜 선행 사진을 만들고 유포한 행위가 명예훼손에 해당할까'가 쟁점이 될 수 있겠습니다. 하지만 선행은 B 씨를 긍정적으로 평가하게 하는 행위입니다. 'B 씨의 사회적 가치를 침해하진 않았기 때문에' 명예를 훼손했다고 보기는 어렵다는 해석이 나옵니다.

A 씨의 행위가 명백히 허위 정보를 유포시키고 B 씨의 사생활을 침해한 사실 또한 부정하기 어려워보입니다. 앞서 소개한 가상의 사례를 통해 생성형 AI 규제의 필요성을 분석한 논문에서도 법적 책임에서 자유롭다고 하지는 않았습니다. 생성형 AI 기술을 잘못 이용한 A 씨, 기술 오남용을 막을 장치를 마련하지 않은 C 사를 규제할 필요성을 주목했습니다.


취재진은 최근 서울서부지검을 찾아 이같은 생성형 AI 규제의 공백에 대해 다룬 논문의 공저자 김정화 검사를 만났습니다. 김 검사는 현재 우리의 법체계가 "생성형 인공지능이 일상의 다양한 영역에 침투해서 일어나고 있는 여러 문제 사례들에 제대로 대응하지 못하고 있다"고 지적했습니다. 생성형 AI 기술의 대표적인 예시인 딥페이크의 오남용 사례를 들여다보면 심각한 성범죄를 저지르는 경우도 있습니다. 타인의 얼굴 사진을 도용하고 합성해 음란물을 만드는 것처럼요. 이럴 때도 처벌할 근거는 없는 걸까요?

일부 범죄에 이용시 분명 처벌…AI 기술 제공자는?


"딥페이크물을 이용한 일부 범죄에 대해서 처벌하는 조문을 두고 있습니다."

김 검사는 성폭력범죄의 처벌 등에 관한 특례법(성폭력처벌법)을 보면 다른 사람의 신체나 음성을 대상으로 한 영상물을 성적인 목적으로 합성 및 유포하는 경우 처벌될 수 있다고 분명히 했습니다. 모든 범죄에 적용할 수 있는 생성형 AI 규제법이 있는 건 아니지만, 성범죄에서 만큼은 생성형 AI 기술을 악용한 이용자에게 처벌 가능성이 보다 명확한 겁니다.

그렇다면 AI 기술을 제공한 사람은 법적 책임에서 자유로울까요?

타인의 얼굴이 들어간 딥페이크 음란물을 제작해 유포한 사건이 발생했다고 가정해보겠습니다. 결론부터 말씀드리면, 이를 만든 사람 뿐만 아니라 딥페이크 제작 기술을 제공한 회사의 대표도 처벌 가능성이 있습니다. 방조했는지 여부가 중요한데요. 기술 제공자가 딥페이크 기술을 이용하는 사람들이 딥페이크 음란물을 만들지 못하도록 조치를 충분히 하였는지 여부에 따라 방조범이 될 수도 있는 겁니다.

-참고: 김정화·임동민·차호동, "생성형 인공지능 기술의 규제 방향에 대한 입법론적 고찰" 「형사법의 신동향 통권(대검찰청 논문집)」 제80호(2023)


하지만 이 역시 생성형 AI 기술 제공자에 대한 별도의 법 규정이 있어서 처벌 가능성이 있는 건 아닙니다. 성폭력처벌법이나 정보통신망법 (음란물유포) 위반을 들여다봐야 합니다. 논문에서는 AI 기술을 제공하는 자는 이용자가 어떻게 기술을 악용할지 예측하는 게 어렵기 때문에 기술 제공 자체를 제한하는 규제를 만들기가 쉽지 않다고 설명합니다.

이런 현실적인 문제 때문에 김 검사는 생성형 AI로 만들어진 제작물에 식별할 수 있는 표시를 달게 하는 입법 대안을 제안했습니다.


미국·유럽연합에선 표시·고지 의무 부과


김 검사는 "제공자에게 최소한 해당 생성물이 인공지능 생성물이라는 점을 표시하도록 하는 방안에 대해서 고민할 필요가 있다는 생각을 하게 됐습니다"라고 설명했습니다. 생성형 AI 기술의 활용과 오남용으로 인한 범죄 예방 사이에서 제공자에게도 역할이 있는 건 분명하기에 최소한의 도리는 지키게끔 유도하자는 겁니다.

논문에 소개된 해외사례를 살펴봤습니다.

미국의 바이든 행정부는 지난해 10월 행정명령을 발표하면서 AI 개발 업체들로 하여금 거짓 정보가 확산하지 않게 AI 생성물에 식별 가능한 표시(워터마크)를 하도록 했습니다. 이보다 앞서 이베트 클라크 미 민주당 하원의원은 딥페이크 영상에 대해 딥페이크 시스템 제공자가 표시 의무를 지키지 않을 경우 형사처벌하는 법안을 발의하기도 했습니다. 유럽연합은 지난해 12월, "생성형 인공지능의 시스템의 제공자와 이용자에게 일정한 공개 또는 고지 의무를 부과"하는 법안을 통과시켰습니다.

생성형 AI가 만든 제작물(사진)에 표시된 워터마크

이같은 생성형 AI 규제 흐름을 따르는 국내 기업들도 있습니다. 최근 출시된 한 스마트폰은 생성형 AI 기술을 활용해 사진 등을 편집할 경우 이를 알리는 표시를 자동으로 생성하고 있습니다. 발전하는 기술과 규제 미비라는 과도기적 상황에서 '기술 제공자가 가져야 할 책임'을 찾아 나서고 있는 겁니다.

"엄격히 규제를 할 경우에는 인공지능 기술의 발전 자체를 가로막을 우려가 있습니다. 다만 적절한 최소한의 규제는 기술 발전에 도움이 될 수 있습니다." 빠르게 발전하는 생성형 AI 기술이 가져다 주는 혜택들도 분명합니다. 이를 너무도 잘 알기에 생성형 AI 규제 문제를 들여다 본 김 검사는 인터뷰를 마무리하며 '유연한' 규제의 필요성을 한 차례 강조했습니다.

관련 기사
무엇이든 뚝딱 만드는 생성형 AI…범죄 예방 대책은 사실상 '전무'
https://www.mbn.co.kr/news/society/5007147

[ 이혁재 기자 yzpotato@mbn.co.kr ]
MBN APP 다운로드