AI 관심 급증하는 가운데 새로운 정의 추가
인공지능도 환각 일으켜 잘못된 정보 생성
AI 툴 사용 위한 비판적 사고 필요성 상기

AI가 그린 '할루시네이트' 관련 사진. (사진=미드저니)
AI가 그린 '할루시네이트' 관련 사진. (사진=미드저니)

영국 케임브리지 사전이 2023년 올해의 단어로 'Hallucinate(할루시네이트)'를 선정했다. 15일(현지시간) BBC 등 외신에 따르면 올해 인공지능(AI)과 관련해 많은 업데이트가 이뤄진 가운데 '할루시네이트'라는 동사 단어에 새로운 정의가 추가됐기 때문이다.

원래 '할루시네이트'의 일반적인 정의는 존재하지 않는 것을 보고 듣고 냄새를 맡는 등 환각을 느끼는 것을 말한다. 그런데 이제는 'AI가 환각을 일으켜 잘못된 정보를 만들어낸다'는 의미가 더해진 것이다. AI 윤리학자인 케임브리지 대학의 헨리 셰블린 박사는 "이는 우리가 인공지능에 대해 어떻게 생각하고 의인화하고 있는지를 단편적으로 보여준다"고 말했다.

셰블린 박사는 "이러한 언어적 선택은 심오한 인식의 변화를 반영한다"며 "다시 말해 '사용자'가 아닌 '인공지능'이 환각을 일으키는 것"이라고 설명했다. 물론 부정확하거나 오해의 소지가 있는 정보는 그동안 루머·선전·가짜 뉴스 등 다양한 형태로 이미 존재해왔다. 하지만 이러한 정보들은 통상 인간이 만들어낸 산물로 여겨진다는 점에서 다르다.

AI가 그린 '할루시네이트' 관련 사진. (사진=미드저니)
AI가 그린 '할루시네이트' 관련 사진. (사진=미드저니)
(사진=미드저니)
(사진=미드저니)

이번 새로운 정의는 챗GPT(ChatGPT)와 바드(Bard), 그록(Grok) 등 AI 생성 도구에 대한 관심이 급증함에 따라 추가됐다. 최근 미국의 한 로펌은 법률 조사·검토에 챗GPT를 활용했다가, 챗GPT가 알려준 가짜 판례를 법원에 제출해 문제가 된 사례도 있었다. 존재하지 않는 허위 정보를 마치 실재하는 사실인 것처럼 만들어낸 셈이다.

케임브리지 사전 관계자는 인공지능도 환각을 일으킬 수 있다는 사실을 인지하고 AI 기술을 활용할 때 여전히 비판적인 사고력을 가질 필요가 있다고 강조했다.

한편 이 밖에도 2023년에 약 6,000개의 새로운 단어와 정의가 추가됐는데, AI 관련 내용이 대거 늘어났다. 이 가운데 프롬프트 엔지니어링(Prompt Engineering)과 거대 언어 모델(LLM, large language model), 생성형 인공지능(GenAI, generative AI), GPT 등도 포함됐다.

AI포스트(AIPOST) 윤영주 기자 aipostkorea@naver.com