도입하는 병원 느는데 어쩌나…오픈AI '위스퍼', 환각 문제 심각
2024-10-28 진광성 기자
오픈AI의 인공지능(AI) 음성인식 모델인 '위스퍼(Whisper)'의 환각 문제가 속속 드러나고 있다. 환각(할루시네이션) 현상은 생성형 AI가 허위나 오해를 불러 일으킬 수 있는 정보를 사실처럼 말하는 것을 의미한다.
이 가운데 오픈AI의 위스퍼를 도입하는 병원이 최근 늘고 있어, 환각 오류에 대한 우려의 목소리가 커지고 있다. 위스퍼는 음성을 텍스트로 변환할 수 있는 모델이다. AP 통신 등 외신보도에 따르면 미국 나블라사가 개발한 위스퍼 기반 음성인식 도구는 3만 명 이상의 임상의가 사용하고 있고, 40개 의료 시스템에 도입됐다.
코넬대, 워싱턴대 연구진은 위스퍼가 약 1%의 AI 필사본에서 환각 문제를 보이며, 때때로 터무니 없는 구절로 전체 문장을 구성한다는 것을 발견했다. 더불어 미시간 대학 연구원은 10건의 오디오 필사본 중 8건에서 환각 문제를 발견했다.
한 머신 러닝 엔지니어는 100시간 이상의 위스퍼 필사본을 연구한 결과, 절반 이상의 필사본에서 환각을 발견했다고 전했다. 한 개발자는 위스퍼로 만든 거의 모든 2만 6000개의 필사본 중 거의 대부분에서 환각을 발견했다고 보고했다.
이에 대해 오픈AI 대변인은 "환각을 줄이는 등 모델의 정확성을 개선하기 위해 지속적으로 노력하고 있다"라며 "사용 정책에 따라 특정 고위험 의사결정 상황에서는 위스퍼 사용을 금지하고 있다"고 언급했다.