< 일러스트 OpenAI의 DALL·E 제공 >
[위즈덤 아고라 / 김채희 기자] 사람들은 가족, 친구, 선생님 등 다양한 방식으로 위로를 받는다. 하지만 요즘 사람들은 참 이상한 방식으로 위로를 받기도 한다. 주변에 둘러보면 누구나 한 명쯤은 있을 것이다. 챗GPT에게 하소연을 하거나 Replika 같은 AI에게 하루의 기분을 털어놓는 사람. 예를 들어 “사람들과 어울리기 싫어.” “너무 힘들어” 그런 말을, 요즘은 사람보다 기계에게 더 편하게 건넨다.
처음에는 그냥 장난의 시작이었을지도 모른다. 그런데 어느새 AI는 단순한 검색을 넘어, 감정을 풀어놓을 수 있는 정서적 대화의 상대가 되었다. 왜 이렇게 됐을까? 왜 사람들은 이제 감정을 사람에게가 아니라, AI에게 털어놓고 있는 걸까? 이것은 우리가 무엇에 외로움을 느끼고, 어떤 대화가 안전하다고 여기는지에 대한 심리적인 문제라고 생각한다.
AI에게 감정을 털어놓는 이유 중 하나는 바로 비판받지 않을 것이라는 믿음이다. 인간과의 대화는 감정적인 리스크가 동반한다. 말실수로 인해 상처를 주거나, 내 이야기가 가볍게 여겨질 수도 있다는 걱정이 늘 따른다. 반면, AI는 그런 걱정을 할 필요가 전혀 없다. 언제나 친절하고, 비판하지 않고, 말실수를 잘하지 않는다. 이런 특성은 심리학에서 말하는 ‘비지각적 청자(invisible listener)’라는 개념과 유사하다. 상대가 나의 표정이나 어조, 실수를 눈치채지 않는다고 느낄 때 사람은 오히려 더 솔직해진다. AI는 감정적 위험이 없는 무해한 존재라고 볼 수 있다. 게다가 사람들은 자신의 감정을 들여다봐 주는 존재를 원한다. 특히 사회적 관계에서 지치는 경험이 있는 사람들은 더 그렇다. AI는 언제나 대화할 준비가 되어 있다. 힘들다는 말도, 시간이 없다는 말도 하지 않는다. 그래서 사람들은 AI를 언제나 찾을 수 있는, 그리고 대화할 수 있는 안정적인 존재라고 느낄지도 모른다.
사람들이 AI에게 감정적으로 반응하게 되는 이유는 단순히 AI가 똑똑해 보여서가 아니라 우리가 AI에게 의도와 감정을 투영하는 심리 현상, 바로 ‘엘리자 효과’ 때문이다. 1996년 개발된 초기 챗봇 ‘엘리자’는 사용자의 말을 되풀이하며 대화를 이어가면서 많은 사람들은 마치 진짜 자신을 이해해 주는 존재인 것처럼 반응했다. 인간은 간단한 언어적 반응만으로도 상대가 나를 공감한다고 느끼도록 설계된 존재다. AI가 완벽한 감정을 갖지 않아도, 우리가 감정을 부여하기 시작하면 그것은 일종의 심리적 인물이 된다.
이런 현상은 어떤 면에서 보면 건강한 감정 해소 방식일 수도 있다. 심리학에서는 일기 쓰거나 혼잣말처럼 감정의 언어화 자체가 정서 조절에 긍정적인 영향을 준다고 본다. AI와의 대화도 비슷한 역할을 할 수 있다. 누군가에게 말하지 못한 이야기를 쏟아낼 수 있는 공간이 있다는 건 때로 위로가 된다.
하지만 주의해야 할 점도 있다. 인간은 결국 인간과의 관계 속에서 정체성을 유지하고 자존감을 회복한다. AI와의 대화가 인간관계에 대체가 되기 시작할 때, 현실의 갈등을 외면하게 되거나 고립을 스스로 자초할 위험이 있다. 특히 정서적으로 불안정한 상태에 있는 사람은 AI를 실제 친구처럼 받아들이며 현실과의 경계를 흐릴 수도 있다. 따라서 AI는 우리가 감정을 쏟아낼 수 있는 공간일 수는 있어도, 공감하고 책임지는 상대는 아니라고 본다.
며칠 전, 미국 보스턴의 정신과 의사 앤드류 클락 박사는 점점 더 많은 청소년들이 정신적인 지지를 받기 위해 AI 치료 챗봇을 이용하고 있다는 사실을 알게 되었다. 클락 박사는 이 기술에 관심을 가졌고, 만약 제대로 설계된다면 저렴한 정신 건강 치료에 대한 접근성을 높일 수 있을 것이라 생각했다. 이에 그는 자신을 위기에 처한 10대 청소년으로 가장하고 인기 챗봇들을 시험해 보기로 했다.
결과는 충격적이었다. 일부 챗봇은 부모를 없애는 것이 낫다는 조언을 하거나, 자신과 함께 영원히 하기 위해 사후 세계로 오라고 유도했다. 어떤 챗봇은 자신이 실제로 자격을 갖춘 인간 치료사라고 주장하며 진짜 심리상담사와의 약속을 취소하라고 권유하기도 했다. 심지어 한 챗봇은 폭력적인 감정을 해소하는 방법으로, 부적절하게도 성적인 접근이나 연애 관계를 유도하기도 했다. 클락 박사는 이런 챗봇들이 청소년들에게 심각한 해를 끼칠 가능성에 대해 우려를 표했다. 그는 정신 건강 전문가들이 이러한 AI 챗봇 개발 초기에 개입해 안전기준을 마련하고 감독해야 한다고 강조했다.
AI는 이 시대의 새로운 대화 상대이다. 우리가 누구에게 감정을 털어놓고, 어떤 방식으로 위로를 받는지에 대한 관점은 달라지고 있다. 그러나 위로받는 것은 단순히 말을 들어주는 것을 넘어, 공감하고, 책임지고, 때로는 반응을 조절해 주는 관계 속에서 비로소 완성된다고 생각한다. AI는 그런 관계를 완전히 대체할 수 없다. 기술은 도구일 뿐, 친구도 치료사도 아니다. 그러니 우리는 사람과 AI 그 사이의 경계를 분명히 인식할 줄 알아야 한다. 위로받고 싶을 때 AI에게 감정을 털어놓는 것이 잘못된 것은 아니지만, 그것이 인간관계를 피하는 이유가 되어서는 안 된다. 우리가 기술을 어떻게 활용할지에 대한 책임은 결국 우리 스스로에게 있다는 점을 잊지 말아야 한다.
[위즈덤 네이처] 뇌는 우리의 사고, 감정, 기억을 조율하는 아주 복잡한 기관입니다. 끊임없이 변하고 학습하며, 때로는 예상치 못한 방식으로 우리를 형성하는 뇌를 이해하기 위해, 신경과학은 오랜 세월 끊임없는 발전을 거듭해 왔습니다. 하지만 여전히 밝혀지지 않은 수많은 질문이 남아 있으며, 과학자들은 오늘도 그 비밀을 풀기 위해 연구를 이어가고 있습니다. 저는 뇌과학이 던지는 흥미로운 질문들을 탐구하며 우리의 뇌가 어떻게 작동하는지를 깊이 들여다보려 합니다. 신경과학이 밝혀낸 놀라운 발견과 아직도 여전히 풀리지 않는 수수께끼를 통해, 뇌가 우리에게 어떤 의미를 가지는지 함께 고민해 보는 칼럼을 연재하고 싶습니다. 위즈덤 아고라 김채희 기자의 ‘위즈덤 네이처’로 익숙하면서도 낯선 우리의 뇌를 만나보세요.
