초대형 인공지능(AI) 학습에 사용되는 데이터베이스에 1000여개의 아동 성(性) 학대 이미지가 발견돼 논란이 되고 있습니다.
워싱턴포스트(WP)의 20일(현지시간) 보도에 따르면, 미 스탠퍼드대 인터넷 감시소(Observatory)는 최근 발표한 보고서에서 '레이온(LAION)-5B'의 이미지 데이터베이스에 최소 1008장의 아동 성 학대 사진을 발견했다고 전했습니다.
레이온-5B는 텍스트를 이미지로 변환해주는 AI 학습용 데이터베이스로, 인기 이미지 생성 AI인 '스테이블 디퓨전' 등의 학습에 쓰인 바 있습니다. 이 이미지들이 어떻게 레이온-5B에 포함됐는지는 구체적으로 알려진 바가 없습니다.
레이온 측은 "안전성 확보를 위해 문제가 되는 이미지를 제거하고 있다"고 밝혔습니다.
그러나 AI가 사진 몇 장만으로 학습이 가능하며 이미지를 생성할 수 있다는 점에서 우려의 목소리가 나오고 있습니다.
연구소 최고 기술자 데이비드 티엘은 "AI가 기본적으로 이 이미지를 이용해 아동 성 학대와 같은 콘텐츠를 제작할 수 있다"고 전했습니다. 이어 소아성애자들이 이전보다 불법 이미지를 쉽게 만들 수 있으며, 그 양도 늘고 있다고 지적했습니다.
보고서는 아동 성 학대 콘텐츠와 당사자의 동의를 받지 않은 음란물을 데이터베이스에서 스크린하고 제거하는 규약을 마련해야 한다고 강조했습니다.
데이비드 티엘은 " AI 학습용 데이터세트에 콘텐츠 정보가 더 투명하게 포함될 수 있고, AI 모델은 노골적인 이미지를 생성하는 방법을 알지 못하도록 학습할 수 있다"고 전했습니다.
[최혜원 디지털뉴스부 인턴기자 befavoriteone@gmail.com]
기사에 대해 의견을 남겨주세요.