수츠케버 퇴사 이후 AI 안전 우려 커지자…오픈AI, 샘 알트만 주도 안전 위원회 구성
일리야 수츠케버 전 오픈AI 최고과학자가 퇴사한 이후 오픈AI에서 인공지능(AI) 안전 분야를 담당했던 ‘슈퍼얼라인먼트(superalignment)’팀이 해체됐다. 퇴사한 직원들은 물론, 업계에서 오픈AI가 AI 안전에 힘써야 한다는 목소리가 커졌다. 이같은 우려에 오픈AI가 최근 새로운 안전 및 보안 위원회를 구성했다.
28일(현지시간) 오픈AI는 공식 블로그를 통해 ‘오픈AI 이사회, 안전 및 보안 위원회 구성’이라는 성명을 발표했다. 오픈AI는 "차세대 프론티어 모델을 훈련하기 시작했다"며 "그 결과가 일반인공지능(AGI)으로 가는 길에서 더 높은 단계의 기능을 제공할 것으로 기대한다"라고 밝혔다.
이와 함께 새롭게 훈련에 돌입한 AI 모델과 미래 기술이 제기하는 위험을 다루기 위한 새로운 안전 및 보안 위원회를 꾸린다는 소식을 덧붙였다. 오픈AI가 차세대 모델을 훈련할 때 새로운 안전 및 보안 위원회는 기술을 보호하기 위한 중요한 안전 정책과 보안 결정에 대한 권장사항을 제시한다는 것이다.
새로운 안전 및 보안 위원회가 기존 슈퍼얼라인먼트팀과 같은 역할을 할 수 있을 지에 대한 의문이 제기된다. 위원회 면면을 살펴보면 일단 샘 알트만 CEO를 주축으로 오픈AI 이사회 멤버인 브렛 테일러(Bret Taylor), 아담 디앤젤로(Adam D‘Angelo), 니콜 셀리그만(Nicole Seligman) 등이 이름을 올렸다. 모두 내부자들로 구성됐다.
이를 놓고 안전 분야를 우려하는 내외부의 압박에 못 이겨 급하게 위원회를 구성한 것이 아니냐는 지적이 나온다. 퇴사한 일리야 수츠케버 최고과학자와 같은 쓴소리를 낼 수 있는 핵심 인사들이 배제된 채 샘 알트만 CEO와 가까운 내부자들로만 위원회를 구성한 점이 아쉽다는 반응이다. 위원회는 향후 90일 동안 내부 프로세스와 보호 장치를 평가하고 추가로 개발할 계획이다.
한편 최근 일리야 수츠케버, 얀 리이크 안전팀 리더를 비롯한 관련 팀 소속 직원들이 줄줄이 퇴사하면서 회사를 향한 쓴소리를 내고 있다. 얀 리이크는 "수년간 AI 안전성은 눈부신 기술, 제품보다 뒷전으로 밀렸다"라고 말한 바 있다. 소속 직원이었던 그레첸 크루거도 "기술 사용에 대한 주의 등을 개선하기 위해 더 많은 조치가 필요하다"라고 밝혔다.