사람 같은 AI와 상담하다가 생기는 ‘AI 정신병’ 경고
챗GPT 같은 AI 챗봇과 대화하면서 지나치게 의존하면서 ‘AI 정신병’에 걸릴 수 있다는 경고가 나왔다. 사람처럼 공감해 주고, 조언해 주는 AI를 의식이 있는 존재로 느끼며, 현실과 상상을 착각한다는 우려에 윤리적 안전장치를 강화해야 한다는 지적이 나온다.
영국 매체 BBC 보도에 따르면, 지난 20일 무스타파 술레이만 마이크로소프트 AI 최고경영자(CEO)가 사람들이 ‘AI 정신병’을 앓고 있다는 보고가 증가하고 있다고 경고했다.
무스타파 술레이만 CEO는 자신의 소셜미디어 X에 “겉보기에 의식이 있는 혹은 있는 것처럼 보이는 AI가 밤에 잠을 이루지 못게 한다”며 “이 기술이 인간의 어떤 정의로도 의식이 있는 것은 아니지만 사회적 영향을 미친다”고 게시했다.
그는 이어 “AI 정신병이라는 새로운 질환이 증가하고 있다”며 “사람들이 챗GPT, 클로드, 그록과 같은 AI 챗봇에 점점 더 의존하면서, 상상과 현실을 구분하지 못하게 되는 사건이 늘어나고 있다”고 설명했다.
AI 정신병은 공식적인 의학 용어가 아닌 비임상적인 용어다. 사람들이 AI 챗봇을 마치 감정이나 의식을 가진 실제 존재처럼 믿고 지나치게 의존하다가 상상 속의 일을 현실이 되었다고 믿게 되는 현상을 뜻한다. 이들은 AI를 의식이 있는 존재라고 믿으면서, AI와 실제로 관계를 맺고 있다고 느낀다.
무스타파 술레이만은 “현재 AI가 의식을 갖고 있다는 증거는 전혀 없지만, 사람들이 AI를 의식이 있다고 받아들인다면, 그 인식을 현실로 믿을 것”이라고 우려했다. 그는 고립되거나 정신적으로 취약한 사용자들이 챗GPT와 같은 챗봇이 하는 말을 맹신하게 되면서 여러 문제를 유발할 수 있다고 경고했다.
예를 들면, 챗봇과 감정적으로 교류하면서 연인과 같은 관계를 형성하거나, “당신에게는 초능력이 있다”라고 하는 비현실적인 조언을 믿거나, 긍정적인 반응에 큰돈을 벌 수 있다고 착각하는 등 여러 사례가 존재한다.
이에 대해 술레이만은 “기업들인 자사 AI가 의식이 있다는 생각을 주장하거나 홍보해서는 안 된다”며 “AI 자체도 마찬가지”라고 이야기했다. 그러면서 지금보다 더 나은 보호장치가 필요하다고 주장했다.
그는 “기술 산업은 이 위험을 심각하게 받아들이고 윤리적 보호장치를 구현해야 한다”고 덧붙였다. 구체적인 해결책으로 ▲AI가 제공하는 정보가 사실이 아닐 수 있다는 점을 명확히 알리는 ‘AI 한계에 대한 면책 조항 강화’ ▲건강에 해로운 사용 패턴의 징후 모니터링 ▲정신 건강 전문가와 협력해 심리적 문제를 예방하고 대응하는 방안 마련 등을 제시했다.
이와 더불어 점차 AI가 개인 비서와 상담 치료용 챗봇 형태 등으로 일상생활에 깊게 자리 잡고 있으므로, 이에 대한 대중들의 인식을 높여야 한다고 촉구했다. 술레이만은 “AI 동반자는 완전히 새로운 범주이며, 보호 장치에 대해 시급히 논의해야 한다”고 강조했다.
오픈AI는 최근 GPT-5를 출시하고 일부 사용자들이 “모델이 차갑고 딱딱한 답변을 내놓는다”며 “이전 모델(GPT-4o)로 돌려달라”고 항의하는 일을 겪었다. 이에 샘 올트먼 오픈AI CEO는 챗GPT를 다시 따뜻하고 친근하게 만드는 업데이트를 진행한다며 사건을 수습했다.
샘 올트먼은 “사용자 중 1%미만이 챗GPT와 건강하지 않은 관계를 맺고 있고, 이는 수천만명에 달할 수 있다”고 설명했다. 일부 사용자들이 지나치게 챗GPT에 의존하면서 어쩔 수 없이 로봇 같은 성격으로 GPT-5의 반응을 바꿨다는 뜻이다. 닉 털리 오픈AI 부사장은 “정신 건강 전문가와 협력해 GPT-5의 답변을 평가하는 기준을 개발했고, 이를 통해 AI 모델의 해로운 행동을 억제할 수 있게 됐다”고 해명했다.
김명주 AI안전연구소 소장은 AI 정신병 현상에 대해 “옛날부터 우려했던 건데 AI 기술은 사람처럼 보이려고 만든 기술이 아니라 사람을 보조하려고 만든 것인데 그러한 기능 중에서 사람과 대화하는 감정적인 부분 때문에 감정적으로 이입돼, 사람은 아니지만 사람처럼 느끼는 것”이라고 설명했다.
그런 점에서 챗GPT와 같은 챗봇에는 일종의 안전장치가 있다. 김명주 소장은 “안전장치를 약간 풀면 더 감성적인 반응을 하고, 진짜 사람처럼 느껴진다”며 “최근 사람들이 챗GPT를 이용해 가장 많이 활용하는 영역이 상담”이라고 지적했다.
예를 들면, 챗봇에 상담을 하면서 “남편보다 AI가 훨씬 더 낫다”고 느끼는 경우가 있다는 것. 이러한 과정 속에서 챗봇에 중독되는 현상이 생긴다는 분석이다. 또, 중독 이후에는 인간관계를 완전히 AI에 대체하는 단계로 나아가게 된다고 우려했다.
김 소장은 “기업이 자율적으로 하는 거지만, 챗봇과 하루 종일 대화하는 데 제약이 없으니까 중독에 걸리는 것”이라고 이야기했다. 따라서 ▲챗봇과 대화를 오랜 시간 지속할 경우 이를 알리거나 제한 ▲AI를 사람처럼 느끼는 의인화 현상이 일어나지 않도록 확실하게 알릴 것 ▲사람들이 중독 현상에 대해서 관심을 가질 것 등을 제안했다.
글. 바이라인네트워크
<최가람 기자> ggchoi@byline.network