'GPTs'로 챗봇 만들고 공유했더니 핵심 정보 유출?…美 커뮤니티서 논란
GPTs 챗봇 공유 사례 늘자마자 정보 유출 논란 설계 단계서 사용된 프롬프트, 서류 등 빼낼 수도 "당분간 공개 자제해야…프롬프트 엔지니어링 중요"
챗GPT 개발사 오픈AI의 'GPTs'가 공개된 지 며칠 만에 '데이터 유출' 논란이 일고 있다. 공 들여 만든 'GPTs'를 대중에 공개했다가, 설계 단계에서 사용됐던 파일들이 유출되는 사례가 발생하고 있는 것이다.
오픈AI는 지난 6일(현지시간) 미국 캘리포니아주 샌프란시스코에서 첫 개발자 회의(DevDay)를 열고 'GPTs'를 개발했다고 밝힌 바 있다. 'GPTs'는 누구나 쉽게 맞춤형 챗봇을 만들 수 있도록 돕는 솔루션이다.
그동안 챗GPT를 이용하는 기업들과 개발자들은 보유한 데이터를 업로드하고 분야와 쓰임새에 맞게 사용하곤 했다. GPTs가 출시되면서 컴퓨터 코드의 도움 없이도 누구나 챗봇을 만들 수 있게 됐다. 오픈AI 측은 챗GPT 플러스 및 엔터프라이즈 서비스를 구독하는 유료 사용자를 대상으로 GPTs 예시 서비스를 사용해볼 수 있도록 했다.
그러면서 GPTs를 활용해 자신만의 특정 영역의 데이터를 학습시킨 챗봇이 트위터, 메타, 레딧 등 각종 커뮤니티에 공개됐다. 챗봇이 공개되고 대중들이 사용하는 과정에서 '데이터 유출' 논란이 불거졌다. 공유된 GPTs에서 특정 프롬프트를 입력하면, 설계 단계에서 사용했던 프롬프트와 파일 등 핵심 정보를 빼낼 수 있다는 것이다.
특히 GPTs를 제작자가 어떤 목적으로 어떠한 기술을 가지고 만들었는지 등을 알아낼 수 있어 큰 문제가 되고 있다. 이같은 문제가 지속될 시 타인이 제작한 GPTs를 그대로 복제하고, 이를 통해 수익화하는 일도 생길 수 있어 우려의 목소리가 커지고 있다.
문제가 해결되기 전까지 민감한 자료 및 프롬프트들로 구성된 GPTs는 공개를 미뤄야 한다는 것이 커뮤니티 이용자들의 반응이다. '프롬프트 엔지니어링이 중요하다'라는 이야기도 나온다.
해당 문제와 관련 서승완 유메타랩 대표는 SNS를 통해 "개발 영역에서 별도의 보정을 하더라도 LLM의 모든 출력을 예상하고 조치하는 것은 쉽지 않다"면서 "이러한 사태를 예방하기 위해서는 GPT를 만드는 개인이 방어책을 마련해야 하고, 결국 프롬프트를 잘 작성하는 것이 중요하다"라고 말했다.