AI로 어려진 유명인들 아동 성 착취 대상으로…인터넷에 범람하는 AI 아동 성 학대 이미지
英 IWF, 법 위반 AI 성 학대 이미지 3,000장 발견 성 착취 피해자·유명 연예인 등 사진 도용해 가공 AI가 만든 불법 CSAM 이미지들 온라인서 공유돼
인터넷상에 인공지능(AI)이 만들어낸 아동 성 학대 이미지들이 넘쳐나는 가운데 이를 통제할 실효성 있는 방안을 촉구하는 목소리가 높아지고 있다. 특히 AI 기술을 사용해 만든 유명 연예인들의 어린아이 이미지들도 소아성애자들의 놀잇감이 돼 논란이 되고 있다.
25일(현지시간) 가디언·BBC 등 외신에 따르면 영국 인터넷감시재단(IWF, Internet Watch Foundation)이 AI로 생성된 불법적인 성 학대 이미지 약 3,000장을 발견했다고 밝혔다. 실재하는 피해자들의 이미지가 AI를 통해 다른 성적 학대 환경 속 다양한 이미지로 양산되고 있다는 설명이다.
또 IWF는 가수나 영화배우 등 유명인들의 이미지를 성 착취물에서 어린아이의 모습으로 묘사하는 데 AI 기술이 악용되고 있다고 전했다. 아울러 온라인상에서 옷을 입고 있는 아이들의 사진을 도용해 AI 프로그램을 통해 아이들을 나체로 '누드화'하는 등 아동 성 착취물(CSAM)의 다른 사례도 언급했다.
IWF는 한 달 동안 조사한 결과 일반 인터넷 브라우저로는 접근 불가능하고 특정 프로그램을 사용해야만 접속할 수 있는 다크 웹인 아동 학대 관련 웹사이트에서 공유된 11,108장의 AI 이미지 가운데 법에 저촉되는 아동 성 학대 이미지 2,978장을 찾아냈다. AI가 만든 불법적인 CSAM 중에는 강간이나 성적 고문 등을 묘사하는 심각한 내용도 다수 발견됐다.
앞서 IWF는 이처럼 아동 성 착취물 제작에 AI가 악용되는 현상이 나타나기 시작했다고 이미 경고한 바 있다. 최근 IWF의 보고서에 따르면 이 같은 AI 기술 남용은 날로 가속화되고 있다. AI로 생성된 일부 이미지는 지나치게 사실적이라 실제 사진과 구분하기 어려울 정도라는 지적이다. AI 기술의 잘못된 사용으로 현실에서는 일어나지도 않은 성 착취 범죄의 피해자들이 늘어나게 된 셈이다.