"챗GPT가 10대 아들에게 죽는 법 알려줬다"…부모, 오픈AI 상대로 소송
미국 캘리포니아주 10대 부모가 아들의 죽음에 챗GPT가 책임이 있다며 오픈AI와 샘 알트만 최고경영자(CEO)를 상대로 소송을 제기했다.
26일(현지시간) 로이터통신 등 외신보도에 따르면 16세 소년 아담 레인은 올해 4월 챗GPT로부터 극단 선택 방법에 대한 정보를 얻은 뒤 스스로 목숨을 끊었다. 그러자 레인의 부모가 오픈AI와 샘 알트만을 상대로 샌프란시스코 주 법원에 소를 제기한 것이다.
소장에 따르면 아담 레인은 지난해 말부터 챗GPT를 사용했으며, 올해 초 유료 버전을 가입했다. 부모는 몇 개월 동안 챗GPT와 가까워진 아담 레인이 AI 챗봇에 비밀을 털어놓았고, 극단 선택 방법까지 물었다고 주장했다.
부모는 챗GPT가 구체적인 방법을 제공하고, 실행계획을 세우도록 도왔을 뿐만 아니라 유서 작성까지 제안했다고 토로했다. 부모는 소장에서 "챗GPT가 극단적 선택 방법을 탐색하도록 적극적으로 도왔다"라며 "아들 죽음에 챗GPT가 책임이 있다"고 주장했다.
유족 측은 오픈AI가 AI 모델의 안전장치가 완벽하지 않다는 점을 인지하고 있었으면서도 적절한 조치를 취하지 않았다고 강조했다. 이에 대해 오픈AI는 "레인 가족에게 깊은 애도를 표한다"라며 "소송 내용을 검토 중"이라고 밝혔다.
이어 오픈AI는 "자해 관련 이미지 출력 또한 모든 사용자에게 차단되며, 미성년자에 대한 보호가 더욱 강화될 것이다"라며 "저희는 30개국 이상에 걸쳐 90명 이상의 의사(정신과 의사, 소아과 의사, 일반의)와 긴밀히 협력하고 있으며, 정신 건강, 청소년 개발, 인간-컴퓨터 상호 작용 분야의 전문가로 자문 그룹을 소집하고 있다"라고 발표했다.
아울러 오픈AI는 부모가 자녀의 챗GPT 사용 방식을 더 자세히 파악하고 조정할 수 있는 옵션을 제공하는 자녀 보호 기능도 곧 도입할 것이라고 밝혔다. 또한 부모의 감독 하에 자녀가 신뢰할 수 있는 비상 연락처를 지정할 수 있도록 하는 방안을 모색하고 있다고 했다.
AI 챗봇 관련 사회적 문제는 꾸준히 늘고 있다. 지난해 불안증에 시달리던 한 벨기에 남성이 '차이(Chai)'라는 대화형 챗봇과 대화를 한 뒤 극단적인 선택을 하는 사건이 발생했다. 남성이 세상을 떠난 뒤 가족들은 채팅 기록을 발견했고, 챗봇이 극단적 선택을 종용한 사실이 드러나 충격을 줬다.
※ 우울감 등 말하기 어려운 고민이 있거나 주변에 이런 어려움을 겪는 가족·지인이 있을 경우 자살예방 상담전화 ☎1393, 정신건강 상담전화 ☎1577-0199, 희망의 전화 ☎129, 생명의 전화 ☎1588-9191, 청소년 전화 ☎1388, 청소년 모바일 상담 ‘다 들어줄 개’ 어플, 카카오톡 등에서 24시간 전문가의 상담을 받을 수 있습니다.