일부러 훼손한 사진을 AI에게 학습시켰더니…"더 다양한 얼굴 그려냈다"
텍사스오스틴대 연구팀, AI 프레임워크 '앰비언트 디퓨전' 공개 손상된 사진만을 학습해 사진 그려내…원본 모방 가능성 낮아
훼손된 사진을 학습한 생성형 인공지능(AI) 모델이 깨끗한 사진을 학습한 모델보다 더욱 다양한 결과물을 만들어 낸다는 연구결과가 나왔다. 기존에 학습한 데이터를 모방하는 경향을 보이는 생성형 AI 모델의 한계를 극복할 수 있는 새로운 방법으로 평가된다.
미국 텍사스오스틴대학교 연구팀은 MIT, 캘리포니아대 연구진과 함께 손상된 사진만을 학습하고 훈련하는 생성형 AI 프레임워크인 '앰비언트 디퓨전(Ambient Diffusion)'을 공개했다. AI가 만든 사진들의 경우 기존 학습 데이터를 기억해 모방하는 경향을 보인다. 이에 연구진은 앞으로 AI로 인한 저작권 관련 분쟁을 피하고, 더욱 다양한 결과물을 생성해 내는 AI를 구현하기 위해 연구에 돌입했다.
연구진은 점진적으로 학습용 사진 데이터를 손상시켰고, 이를 AI에게 학습시켜 보면서 결과물을 비교했다. 연구원들은 먼저 유명인의 고품질 이미지 데이터베이스인 'CelebA-HQ'에서 가져온 3,000개의 '깨끗한' 인물 사진으로 모델을 훈련시켰다.
깨끗한 사진으로 학습한 AI는 원본과 매우 유사한 이미지를 생성했다. 이후 연구진은 점진적으로 사진 데이터를 손상시켰고, 최대 90%의 픽셀이 누락된 이미지를 학습시키기에 이르렀다. 그 결과 손상된 사진을 학습한 AI 모델도 제대로 된 사람의 얼굴을 생성했고, 결과는 더욱 다양해졌다는 설명이다.
연구를 진행한 아담 클리반스(Adam Klivans) 텍사스오스틴대학교 컴퓨터공학과 교수는 "손상되지 않은 전체 데이터 세트를 확보하려면 비용이 많이 든다"라며 "해당 프레임워크는 과학 및 의학 응용 분야에서도 유용하게 활용될 수 있다"라고 밝혔다.
기존의 생성형 AI 모델보다 더 일관성 있는 결과를 매번 내놓지는 못하지만, 원본 데이터를 기억해 복제하지 않는다는 점이 이번 연구의 성과다. 연구진은 앰비언트 디퓨전을 깃허브에 오픈 소스로 공개했다.