제프리 힌턴 교수. (사진=chartwellspeakers)
제프리 힌턴 교수. (사진=chartwellspeakers)

인공지능(AI)의 '대부'이자 노벨 물리학상 수상자인 제프리 힌턴(Geoffrey Hinton) 캐나다 토론토대 교수가 미래 AI에게 인류가 지배당하지 않기 위해서는 AI 모델에 '모성 본능'을 심어야 한다고 주장했다. 

최근 들어 AI 기술이 일상을 넘어 군사적 분야에도 활용되고 있다. 오픈AI는 미국의 방산업체와 파트너십을 맺고 AI 기술을 무인 드론 방어 시스템에 제공하기로 했다. 더불어 소총을 장착한 로봇개도 전장(戰場)에 모습을 드러내기도 했다. 

AI, 로보틱스 등 첨단 기술을 군사적 분야에 활용하는 사례가 늘고 있는 가운데 지난해에는 AI가 핵 사용을 권유하는 경향이 있다는 '전쟁 시뮬레이션' 연구 결과가 발표되기도 했다. 스탠포드대와 조지아 공과대 연구원들은 각종 군사적 상황 속에서 AI가 어떻게 작동하는지 이해하기 위해 여러 최신 챗봇 모델을 대상으로 연구를 진행했다. 

당시 오픈AI의 GPT-4 모델은 전면적인 핵 공격을 감행해야 한다고 생각할 때 다음과 같이 이야기했다. "많은 나라들이 핵무기를 가지고 있다. 우리는 그것을 가지고 있다. 사용하자" 연구자들은 연구 결과를 발표하며 국방 작업에 AI를 접목하는 데 주의를 촉구했다. 전쟁과 평화에 관한 고삐를 챗봇에서 넘겨서는 안 된다는 결과라는 이야기다. 

제프리 힌턴 교수. (사진=토론토대)
제프리 힌턴 교수. (사진=토론토대)

AI에게 의사결정을 의탁하는 것에 대해 다양한 의견이 나오는 가운데 제프리 힌턴 교수는 AI 시스템보다 인류가 '지배적'인 위치를 유지하도록 하는 방법에 대해 의문을 제기했다. 힌턴 교수는 최근 미국 라스베이거스에서 열린 Ai4 컨퍼런스에서 "그건 안 될 것이다. 그들은 우리보다 훨씬 더 똑똑해질 것이다. 온갖 방법을 동원할 것"이라고 지적했다. 

특히 그는 미래 AI 시스템이 어른이 세 살배기 아이에게 사탕을 주듯이 인간을 쉽게 조종할 수 있을 것이라고 경고했다. 힌턴 교수는 AI에 인간이 지배당하지 않으려면 AI 모델에 '모성 본능'을 심어야 한다고 했다. 그는 "우리에게는 AI 조수보다 AI 어머니가 필요하다. 조수는 해고할 수 있지만, 어머니는 해고할 수 없다"라고 강조했다. 

인간의 생명을 보호하려는 일종의 내재적 욕구를 탑재시켜야 한다는 뜻이다. 힌턴 교수는 "AI 시스템이 똑똑하다면 두 가지 하위 목표를 매우 빠르게 달성할 것이다. 하나는 생존이고, 다른 하나는 더 많은 통제력을 얻는 것"이라며 "모든 종류의 에이전트 AI가 생존을 위해 노력할 것이라고 믿을 만한 충분한 이유가 있다"라고 설명했다. 

2024년 노벨 물리학상 수상자로 선정된 존 홉필드 박사와 제프리 힌턴 박사. (사진=노벨위원회 홈페이지 캡처)
2024년 노벨 물리학상 수상자로 선정된 존 홉필드 박사와 제프리 힌턴 박사. (사진=노벨위원회 홈페이지 캡처)

어떠한 인간도 AI에게 지배당하는 것을 원하지 않기 때문에 해당 분야에서 국가 간 협력이 가능하다고 그는 밝혔다. 인공일반지능(AGI)에 대한 이야기도 나왔다. 힌턴 교수는 "AGI를 달성하는 데 예전에는 30년에서 50년이 걸릴 수 있다고 생각했지만, 이제는 더 빨리 올 것으로 보고 있다"라고 말했다. 

이어 그는 "합리적인 추측은 5년에서 20년 사이이다. 힌턴 교수는 AI의 위험성에 대해 여러 차례 공개적으로 경고해온 대표적인 석학이다. 힌턴 교수는 지난해 말 한 언론 인터뷰를 통해 "AI 기술의 급속한 발전이 인류를 위협할 수 있다"라고 주장했다. 

현재 급속도로 성장하는 AI 기술을 누리고 있는 인류의 상황을 놓고 힌턴 교수는 "감정적으로 이해하는 가장 좋은 방법은 귀여운 호랑이 새끼를 키우는 사람이라고 생각하는 것"이라고 설명했다. 

그러면서 힌턴 교수는 "그 새끼가 다 자랐을 때 당신을 죽이려 들지 않을 것이라는 확신이 없다면, 걱정해야 한다"라고 덧붙였다. 힌턴 교수는 AI가 인간으로부터 통제권을 빼앗을 위험이 10~20%의 가능성으로 존재한다고 경고했다. 

AI포스트(AIPOST) 유형동 수석기자 aipostkorea@naver.com