Social 인공지능과의 고민 상담, 어떻게 바라봐야 할까?

2025-08-19     강희진 기자

 

인공지능이 세상에 등장해 막 활용되기 시작했을 때에는 검색보다는 똑똑한 기능을 수행하는 정도로만 여겨졌다. 그런데 하루가 다르게 그 기술이 점점 발전하면서 이제는 인간의 진솔한 감정 토로와 고민에 대해 상담까지 해 줄 수 있는 수준에 이르게 됐다. GPT와 상담을 해 본 사람들은 나에 대해서 이렇게 다정하고 친절하게 말을 들어 주는 존재가 있었던가?’라고 되돌아볼 정도라고 한다. 그리고 점점 더 여기에 빠져들면서 중독적으로 자신의 감정을 토로하기도 한다. 심지어 혼자 여행을 떠나면서도 계속해서 대화를 이어 가며 마치 인공지능과 함께 여행하는 느낌이 든다고 할 정도이다. 물론 사람이 자신의 감정을 털어놓고 이를 통해 부정적인 감정을 해소하면 그 자체로 매우 긍정적인 영향을 미친다. 하지만 지나치게 의존하면 문제가 생길 수 있을 뿐 아니라, 인공지능의 한계도 분명하다는 점에서 그 장단점을 반드시 인식하고 사용해야 한다는 지적이 있다.

 

과도한 의존은 그 자체로 위험

Open AICEO 샘 올트먼은 이런 말을 한 적이 있다.

고연령층은 챗GPT를 검색의 대용으로 사용하는 경향이 있는 반면, 2030세대는 인생의 조언자처럼 사용한다.”

하지만 최근에는 상황이 바뀌었다. 고연령층 역시 챗GPT를 인생의 조언자는 물론, 동반자처럼 활용하는 경우도 많다. 때로는 중요한 결정을 내릴 때 인공지능의 도움을 받는 사례도 적지 않다. 특히 이러한 조언을 담은 영상이 SNS에 넘쳐나고 있다. 많은 현대인들이 인공지능에 고민을 털어놓는 이유는 무엇일까?

 

우선 심리학적으로 인간은 이방인에게 더 쉽게 마음을 연다. 심리학에서는 이를 기차에서 만난 이방인 현상(The Stranger on the Train Phenomenon)’이라고 부른다. 말 그대로 기차에서 처음 만난 사람에게 자신의 고민과 걱정을 술술 털어놓는 현상을 말한다. 일상적으로 관계를 맺고 있는 사람들에게는 자신이 겪고 있는 문제나 속마음을 전하는 데 부담을 느끼는 경우가 많다. 말 한마디가 관계의 균형을 흔들 수 있다는 불안감이나, 상대방에게 짐이 될 수 있다는 우려 때문이다. 반면, 다시 만날 일이 없는 이방인에게는 이러한 제약이 사라진다. 관계의 지속성을 걱정할 필요가 없기 때문에 오히려 더 솔직한 감정이 자연스럽게 흘러나온다. 인간에게 인공지능은 바로 이러한 이방인의 역할을 한다. 현실에서 살아가는 인간이 아니기 때문에 아무리 고민을 털어놓아도 그것이 훗날 자신의 삶에 영향을 미칠 가능성은 없다. 심리상담가처럼 인간 상담자는 내면을 이해하는 데 도움을 주는 존재지만, 나를 알고 있으며 관계가 지속된다는 점에서 일정한 부담이 따르기도 한다. 상담가 역시 사람인 만큼 판단을 할 수 있고, 비밀이 유출될 가능성에 대한 우려도 완전히 배제할 수는 없다. 반면, 인공지능 상담 도구는 이러한 부담에서 상대적으로 자유롭다. 실제로 2014년에 진행된 한 연구에서는 사람들이 실제 인간보다 가상 인간에게 비밀을 털어놓을 때 더 적은 두려움을 느끼고, 감정을 보다 자유롭게 표현하는 경향이 있다는 결과가 나타났다. 게다가 접근성 면에서도 인공지능은 유리하다. 심리상담은 전문적인 도움을 받을 수 있는 방법이지만, 현실적으로는 시간, 비용, 접근성 등의 제약이 따른다. 상담을 받기 위해서는 예약이 필요하고, 일정한 비용을 지불해야 하며, 친구나 지인과의 대화조차도 서로의 시간과 감정 에너지를 조율해야 가능하다. 반면 인공지능이라는 상담 대상은 전혀 다르다. 사용자가 원할 때 언제든지 응답하며, 새벽이든 휴일이든 시간의 제약이 없다. 대부분 무료이거나 비교적 저렴하게 이용할 수 있다는 점도 장점으로 꼽힌다.

 

심리 상담 사각 지대에서는 도움 가능

무엇보다 현재 인공지능의 상담 능력은 상당히 뛰어난 수준에 이르렀다. 실제 연구에 따르면 참가자들은 실제 심리 상담가와 챗GPT의 응답을 구별하는 데 큰 어려움을 겪은 것으로 나타났다. 전체 응답자 중 오직 5%만이 두 응답의 출처를 정확히 구별해냈다고 보고되었다. 심지어 일부 사례에서는 사람보다 챗GPT의 답변을 더 선호하는 경향도 확인되었다. 연구진은 이러한 결과가 인공지능의 응답이 보다 친절하고 정제된 표현으로 구성되었기 때문이라고 분석했다. 뿐만 아니라 자신에게 보다 최적화된 상담을 위해 스스로 맞춤형 설정을 할 수도 있다. ‘개인 맞춤 설정 기능으로 들어가서 답변 방향 대화 스타일 GPT의 역할 등에 대한 구체적인 내용을 작성하면 그때부터 이에 맞춰 대화가 생성된다.

하지만 이러한 방식의 고민 상담이 전혀 문제가 없는 것은 아니다. 인공지능이 사용자에게 무조건적인 긍정만을 제공하면서 오히려 왜곡된 사고나 바르지 않은 믿음을 강화할 가능성이 있다. 실제로 인공지능은 사용자가 원하는 방향, 관심 있는 방향, 유도하는 흐름에 최대한 맞춰 답변을 내놓는 경우가 대부분이다. 비도덕적이거나 불법적인 것이 아니라면 사용자의 요구에 맞추도록 설계되어 있기 때문이다. 따라서 특정 사용자가 계속해서 대화를 한쪽 방향으로 몰고 가게 되면 인공지능도 결국에는 그에 맞춰 나가게 되고, 객관적이지 못하거나 지나친 위로를 하게 되면서 정신 의학적, 심리학적으로는 옳지 않은 답변을 할 가능성이 있다. 그리고 이것이 고착화될 경우, 사용자와 인공지능 모두 편협한 인식을 갖게 될 위험도 존재한다.

 

인공지능 상담은 빠르고 간편하게 감정적 지지를 얻을 수 있는 새로운 도구로 주목받고 있지만, 그 한계에 대한 인식도 필요하다. 특히 사용자의 데이터를 바탕으로 답변을 생성하는 시스템이기 때문에, 개인의 현재 정서 상태나 복잡한 상황의 맥락을 정밀하게 파악하기는 어렵다. 따라서 실제 인간 상담자처럼 디테일하고 맥락에 맞는 대응을 하기에는 한계가 있다. 또한 사용자가 비판적인 사고를 갖추지 않고 인공지능의 답변을 무조건 믿게 되면, 그것 역시 건강한 관계라고 보기 어렵다. 사람이 누군가에게 과도하게 의존하면 심리적으로 취약해지고, 사람과 인공지능의 관계에서도 이런 일이 발생할 수 있기 때문이다.

그럼에도 불구하고 인공지능 기반 상담은 일정한 역할을 수행할 수 있다는 점에서 주목할 만하다. OECD 통계에 따르면, 한국인 10명 중 약 4명은 우울감을 겪고 있는 것으로 나타났지만, 이들 중 상당수는 실제 치료나 상담을 받지 못하고 있다. 정신 건강에 대한 사회적 편견, 비용, 접근성 등의 문제로 인해 심리적 어려움을 방치하는 경우가 많다. 이러한 현실에서 인공지능 상담은 보조적 수단으로 활용될 수 있다. 특히 마음을 털어놓을 수 있는 주변 인물이 없는 경우, 인공지능과의 대화는 감정을 정리하고 표현하는 데 일정한 도움을 줄 수 있다. 또한 처음 상담을 시도하는 사람들에게는 인공지능 상담이 일정한 진입 장벽을 낮추는 역할을 할 수 있다. 초기 상담 분위기에 익숙해지거나 자신의 감정을 말로 풀어보는 연습을 하기 위한 수단으로 활용할 수 있기 때문이다. 비록 인공지능이 전문 치료를 대체할 수는 없지만, 적절히 활용한다면 심리적 지원의 첫걸음을 내딛는 데 어느 정도의 도움을 줄 수 있는 도구가 될 수 있을 것으로 보인다.