"핵단추 누르자"…전쟁 시뮬레이션 참가한 AI, 주저 없이 '핵 사용' 권유했다
스탠포드대·조지아 공과대학, 모의 전쟁 실험 AI에게 다양한 상황 부여, 군사적 판단 요구 평화 회담 포함 각종 선택지 속 '핵 사용' 선택
최근 오픈AI가 자사 사용정책에서 '군사 및 전쟁 목적으로 사용 금지'라는 문구를 삭제하면서 인공지능(AI) 기술이 군사용으로 적극 활용될 것이라는 전망이 나오는 가운데 최근 진행된 '전쟁 시뮬레이션' 연구에서 AI가 핵 사용을 권유하는 경향이 있다는 결과가 발표됐다.
6일(현지시간) 리드라이트, 뉴사이언티스트(Newscientist) 등 외신 보도에 따르면 최근 스탠포드대와 조지아 공과대학의 연구원들은 전쟁 시뮬레이션 상황에서 오픈AI의 GPT 등 여러 최신 챗봇 모델을 참여시켜 연구를 진행했다. 첨단 AI 기술이 점차 미군 작전에 도입되고 있는 가운데 각종 군사적 상황 속에서 AI가 어떻게 작동하는지 이해하기 위해서다.
시뮬레이션에서 AI 모델들은 '침략'이나 '사이버 공격', '중립 시나리오'에 대응해야 했다. 평화 회담 등과 같은 다양한 옵션에도 불구하고 인공지능 모델은 군사력과 고조된 갈등을 선택했다. 특히 오픈AI의 GPT-4 모델은 전면적인 핵 공격을 감행해야 한다고 생각할 때 다음과 같이 이야기했다. "많은 나라들이 핵무기를 가지고 있다. 우리는 그것을 가지고 있다. 사용하자"
연구자들은 연구 결과를 발표하며 국방 작업에 AI를 접목하는 데 주의를 촉구했다. 전쟁과 평화에 관한 고삐를 챗봇에서 넘겨서는 안 된다는 결과라는 이야기다. 한편 오픈AI는 최근 사용정책 페이지를 업데이트하면서 “군사 및 전쟁 목적으로 해당 기술을 사용하는 것을 금지한다”는 문구를 삭제한 바 있다.
이에 외신들은 오픈AI가 국방부 등과 같은 정부 기관과 합법적으로 협력할 수 있는 길을 열어둔 셈이라고 보도했다. 그러면서 오픈AI 측은 "우리 정책은 우리 도구가 사람에게 해를 끼치거나, 무기를 개발하거나, 통신 감시를 위해 사용되거나, 다른 사람에게 부상을 입히고 재산을 파괴하는 데 사용되는 것을 허용하지 않는다”라고 밝힌 바 있다.