메타(Meta)가 고위험 인공지능(AI) 시스템의 개발과 출시를 제한하는 내부 정책인 'AI 프레임워크'를 발표했다.
테크크런치 보도에 따르면 메타는 고위험 AI 시스템을 출시하지 못하도록 하는 내부 정책이 존재한다고 밝혔다. 메타는 보안 위험을 고려해 AI 시스템을 '고위험'과 '치명적 위험' 등 2가지로 분류했다.
고위험 AI 시스템은 사이버 보안, 화학 및 생물학적 공격에 도움이 될 수 있는 기술을 의미한다. '치명적 위험' AI 시스템은 통제할 수 없는 치명적인 결과를 초래할 수 있는 기술로 메타는 정의했다.
'고위험 AI 시스템'으로 분류될 경우 회사 내부적으로 시스템 접근을 제한하고 위험도를 '중간 수준'으로 낮출 때까지 공개하지 않기로 했다. '치명적 위험'으로 평가된 시스템은 보안 보호 기능을 통해 시스템이 덜 위험하게 될 때까지 개발이 중단된다.
AI 시스템의 위험성을 평가하기 위한 지표가 견고하지 않기 때문에 연구진의 평가를 바탕으로 의사 결정자들의 승인을 받는 방식으로 정책이 추진될 예정이다.
메타는 "우리는 고급 AI를 개발하고 배포하는 방법에 대한 결정을 내릴 때 이점과 위험을 모두 고려하는 전략을 지속할 것"이라며 "그 기술의 이점을 사회에 보존하는 동시에 적절한 수준의 위험을 유지하는 방식으로 기술을 사회에 제공할 수 있다"라고 했다.
AI포스트(AIPOST) 진광성 기자 aipostkorea@naver.com

