英 IWF, 법 위반 AI 성 학대 이미지 3,000장 발견
성 착취 피해자·유명 연예인 등 사진 도용해 가공
AI가 만든 불법 CSAM 이미지들 온라인서 공유돼

기사의 이해를 돕기 위한 사진. (사진=미드저니)
기사의 이해를 돕기 위한 사진. (사진=미드저니)

인터넷상에 인공지능(AI)이 만들어낸 아동 성 학대 이미지들이 넘쳐나는 가운데 이를 통제할 실효성 있는 방안을 촉구하는 목소리가 높아지고 있다. 특히 AI 기술을 사용해 만든 유명 연예인들의 어린아이 이미지들도 소아성애자들의 놀잇감이 돼 논란이 되고 있다.

25일(현지시간) 가디언·BBC 등 외신에 따르면 영국 인터넷감시재단(IWF, Internet Watch Foundation)이 AI로 생성된 불법적인 성 학대 이미지 약 3,000장을 발견했다고 밝혔다. 실재하는 피해자들의 이미지가 AI를 통해 다른 성적 학대 환경 속 다양한 이미지로 양산되고 있다는 설명이다.  

또 IWF는 가수나 영화배우 등 유명인들의 이미지를 성 착취물에서 어린아이의 모습으로 묘사하는 데 AI 기술이 악용되고 있다고 전했다. 아울러 온라인상에서 옷을 입고 있는 아이들의 사진을 도용해 AI 프로그램을 통해 아이들을 나체로 '누드화'하는 등 아동 성 착취물(CSAM)의 다른 사례도 언급했다.  

울고 있는 아이의 모습. (사진=엔바토 엘리먼트)
울고 있는 아이의 모습. (사진=엔바토 엘리먼트)

IWF는 한 달 동안 조사한 결과 일반 인터넷 브라우저로는 접근 불가능하고 특정 프로그램을 사용해야만 접속할 수 있는 다크 웹인 아동 학대 관련 웹사이트에서 공유된 11,108장의 AI 이미지 가운데 법에 저촉되는 아동 성 학대 이미지 2,978장을 찾아냈다. AI가 만든 불법적인 CSAM 중에는 강간이나 성적 고문 등을 묘사하는 심각한 내용도 다수 발견됐다.

앞서 IWF는 이처럼 아동 성 착취물 제작에 AI가 악용되는 현상이 나타나기 시작했다고 이미 경고한 바 있다. 최근 IWF의 보고서에 따르면 이 같은 AI 기술 남용은 날로 가속화되고 있다. AI로 생성된 일부 이미지는 지나치게 사실적이라 실제 사진과 구분하기 어려울 정도라는 지적이다. AI 기술의 잘못된 사용으로 현실에서는 일어나지도 않은 성 착취 범죄의 피해자들이 늘어나게 된 셈이다.

AI포스트(AIPOST) 윤영주 기자 aipostkorea@naver.com