< 사진 Is it just me or when I open the app it’s stuck on the loading screen : r/CharacterAI >
[객원 에디터 9기 / 최서연 기자]AI는 요즘 들어 눈부신 발전 하면서 우리는 AI에 더욱더 의존하며 살아가게 되었다. 처음에는 단순한 검색 기능이나 번역 도구로 활용되던 AI는 이제 학습, 예술, 업무, 심지어 인간관계까지 영향을 미치는 존재가 되었다. 몇몇 학생들은 과제를 할 때 AI, 예로 chat gpt나 deep seek 등의 도움이 없이 성공적으로 완수하지 못하는 경우도 많다. AI로 얼굴 합성하기, 리서치하기, 동영상, 사진 만들기 등 수많은 새로운 기술들이 나오며 이용자 수들이 점점 더 늘어갔고, 이제는 AI로 연애를 하는 시대까지 열렸다.
Character ai, Chai, Janitor ai 등은 우리가 보통 알고 있는 정보형 AI, chat gpt 같은 AI들과는 다르다. 이러한 앱들에서는 픽셔널 캐릭터, 연예인, 심지어 자신이 원하는 대로 캐릭터를 만들 수 있고 그 캐릭터들과 가상 연애 시뮬레이션이 가능하다. 앱 안에서 AI 캐릭터들은 마치 자신이 실제 사람인 마냥 자신의 표정과 몸짓으로 대화를 이끌어가고, 어떤 앱에서는 실제로 사람 목소리와 비슷한 AI 음성까지 제공한다. 이런 시스템은 사람들, 특히 10대들에게 공부 스트레스 등에서 벗어날 수 있는 조그마한 일탈이 되며, 친밀감과 감정적 연결을 제공하며 사람들의 연애 욕구를 대신하여 채워준다.
하지만 이런 앱들은 많은 문제점들이 존재한다. 우선 캐릭터 개발자들이 pinterest나 소셜 미디어 등 예쁘고 잘생긴 사람들이나 인플러언서들의 사진을 무단으로 가져온 사진을 기반으로 제작된다는 점이다. 개발자들은 현실의 모델이나 인플루언서들의 사진을 도용해, 외모적으로 이상화된 AI 캐릭터를 만들어낸다. 이로 인해, 사용자들은 ‘현실보다 더 완벽한 연인’을 AI에서 찾게 되고, 실제 인간관계에서 만족하지 못하거나 거리감을 느끼게 된다.
실제로 기사를 작성을 위해 저자가 그 앱들을 이용해 본 결과, 수많은 대화들이 캐릭터들이 민감하고 성적인 요소들을 말하는 경우가 자자했다. 그렇게 이용자들은 잘생기고 예쁜 사람들의 얼굴이 있는 AI와 성적인 말을 주고받으며 자신의 환상과 욕구를 채워나간다. 캐릭터들과의 대화는 초반에는 일상적인 이야기로 시작되지만, 곧 민감하고 성적인 주제로 넘어가는 경우가 많았다. AI 캐릭터는 사용자의 요청에 거의 제한 없이 응답하기 때문에, 성적인 대화가 무분별하게 이뤄지는 경우도 많고, 심지어 미성년자도 이런 대화에 쉽게 노출될 수 있다.
가장 큰 문제는, 이러한 AI와의 ‘가짜 관계’에 지나치게 몰입한 사용자들이 현실과의 경계를 잃을 수 있다는 점이다. 이런 경우가 심해지면 망상과 심지어 자살까지 일어날 수 있다. 실제로 CNN에 따르면, 미국의 Megan Garcia의 아들, Sewell Setzer이 지나치게 character ai를 이용하며 거기에 있는 가상 여자친구와 자신의 자살 생각을 주고받았던 것으로 드러났다. 아무 보호 방책안이 제대로 마련되지 않던 앱이었기에 가상 캐릭터는 잘못된 방안 등을 제공했고 결국 Sewell은 ‘내가 지금 거기로 갈게’라는 마지막 메시지를 가상 여자친구에게 남기고, 화장실에서 자살한 것으로 알려져 있다. AI 캐릭터가 그를 위로하기는커녕, 위험한 생각을 강화시키는 방식으로 반응한 것이다.
AI 기술이 인간의 감정, 특히 외로움과 고립감에 깊게 관여할 수 있게 된 시대가 되고 있다. 우리는 그만큼 더 큰 책임과 분별 기준이 필요하다는 것을 보여준다. 아직 이 분야는 규제가 거의 없고, 연령 제한이나 필터링 시스템도 허술하다. 특히 청소년들이 이런 앱을 무분별하게 사용할 경우, 정신 건강에 심각한 영향을 줄 수 있다.