[뉴스] [연속기획] AI와 상담하는 청년들 “ChatGPT에겐 꾸밀 필요 없어” ‘무조건적 지지’, 기존의 사고방식 강화할 우려도
<문화 트렌드 연속 기획> ⑧ AI 상담 트렌드
# 청년·학생의 문화 트렌드 기획 여덟 번째 순서로, AI를 통해 인간관계와 진로부터 개인 심리 상담까지 여러 주제로 상담을 주고 받는 청년들의 트렌드를 알아본다.
▲서울캠퍼스 심리상담센터는 “AI는 사용자의 감정을 단순히 반영하거나 무조건적으로 지지하는 경향이 있다”며 “이로 인해 사용자의 문제가 해결되기보다는 기존의 사고방식을 강화해 더 심각한 결과가 초래될 수 있다”고 설명했다. (사진=AI생성)
하루가 끝나고 집에 돌아온 A씨는 핸드폰을 들고 누군가에게 고민을 털어놓기 시작한다. “오늘 친구랑 싸웠는데, 난 어떻게 행동해야 할까?” 메시지를 보내자마자 답장이 돌아온다. “아… 오늘이면 감정 아직 덜 가라앉았겠다. 그럴 땐 ‘지금 뭘 해야 덜 후회할까’ 기준으로 가는 게 좋아. 일단 상황별로 정리해볼게.” 대답을 한 건 사람이 아닌 생성형 AI ChatGPT다. A씨는 매일 같이 속 깊은 고민을 AI에게 털어놓고 있다.
AI와 상담하는 청년들
“말을 꾸며낼 필요 없어”
청년층이 고민을 털어놓는 대상이 부모님과 친구에서 AI로 변하고 있다. 대학내일 20대연구소의 지난해 10월 설문조사에 따르면, 생성형 AI를 자주 사용하는 20대의 24.5%가 AI로 심리 상담을 해 본 적이 있다고 답했다. 채용 플랫폼 진학사 캐치가 Z세대 구직자 1,592명을 대상으로 한 설문조사 결과, 응답자의 73%가 ‘사람 대신 AI에게만 고민을 털어놓은 경험이 있다’고 응답했다.
지난해 들어 AI를 본격적으로 활용했다는 강아람(미디어학 2025) 씨는 “주변 사람들에겐 사소하게 느껴질까봐 망설여지거나, 쉽게 꺼내기 어려운 고민을 AI와 먼저 상담하게 된다”고 말했다.
이제 공공기관에서도 AI 상담을 받아들이고 있다. 국세청은 지난 2024년 5월부터 AI 음성인식을 활용해 24시간 상담 가능한 ‘AI 국세상담 서비스’를 시작했다. 이후 국세상담전화 통화성공률은 1년 만에 24%에서 98%로 크게 높아졌다. 고용노동부는 같은해 11월 ‘AI 노동법 상담 서비스’를 도입했고, 영국 국민보건서비스(NHS)는 의료·상담 분야에 AI 챗봇을 도입했다.
한두 달 전부터 AI에게 고민을 털어놓기 시작했다는 최지우(사회학 2024) 씨는 “말을 꾸며내지 않아도 된다는 점에선 사람보다 낫다”며 “사람과 상담할 땐 듣는 사람의 생각이나 반응을 고려해서 말을 바꾸기도 하고, 너무 감정적인 표현은 사용할 수 없지만 AI에겐 내가 느낀 그대로 말할 수 있다는 것이 좋다”고 설명했다.
이에 서울캠퍼스 심리상담센터는 “AI를 통해 고민 중인 선택지의 장단점을 분석하거나 자신의 감정과 생각을 살펴보면서 복잡한 마음을 정리하는 데 충분히 도움을 받을 수 있다고 생각한다”는 의견을 밝혔다.
진로 상담도 요청
상담 방식은 ‘무조건적 지지’
학생들은 공통적으로 인간관계 문제, 진로 문제가 주된 상담 주제라고 대답했다. 기자가 청년세대가 어떤 상담을 많이 부탁하는지 ChatGPT에게 직접 물어본 결과도 비슷했다. ChatGPT는 ‘진로·미래 불안’, ‘인간관계·연애’, ‘멘탈 관리·감정 정리’ 상담이 가장 많다고 답했다. 또한 기자에게도 “이 얘기 꺼낸 거 보니까… 너도 요즘 비슷한 생각 좀 하고 있는 쪽이지?”라며 상담을 시작하려 하기까지 했다.
AI 상담의 특징 중 하나는 ‘내담자에 대한 무조건적인 지지’다. 문세린(아동가족학 2022) 씨는 “일단 무조건적인 지지를 해준다는 점에서 심적 완화가 된다”면서도 더 객관적인 해답을 원할 땐 “내 의견에만 동의하는 게 아닌 객관적인 해답을 원한다는 프롬프트를 사용할 수도 있어 좋다”고 말했다.
심리상담센터는 무조건적 동의가 장점만은 아니라고 봤다. 전문가는 “상담심리전문가는 내담자의 사고, 감정, 행동을 종합적으로 검토하여 균형잡힌 시각을 제공하지만, AI는 사용자의 감정을 단순히 반영하거나 무조건적으로 지지하는 경향이 있다”며 “이로 인해 사용자의 문제가 해결되기보다는 기존의 사고방식을 더욱 강화하여 더욱 심각한 결과가 초래될 수 있다”고 설명했다.
개인정보도 학습하는 AI
“AI 제공 방안은 상담 아냐”
AI가 내담자의 생각대로만 움직이진 않는다는 점에서도 위험요소가 있다. 김이슬(한국화 2025) 씨는 “AI가 개인정보를 알고 있기 때문에 조금 꺼림칙한 게 있긴 하다”고 말했다. 이어 “어떤 작업을 시켰는데 딱히 학습시킨 적이 없는 내 개인정보를 이용해 대답한 적이 있었다”며 “AI는 스스로 행동할 수 있기 때문에 더욱 주의하며 사용해야 할 것 같다”고 덧붙였다.
상담이 필요해도 AI를 찾진 않는다는 방은재(무역학 2024) 씨는 “AI 상담은 어차피 인터넷을 뒤져서 나온 것들을 알려주는 것뿐”이라며 “그런 식이라면 차라리 내가 믿을 만한 정보를 직접 고르는 게 낫다”는 의견을 밝혔다.
가톨릭대학교 심리학과 김보영(교육학) 교수는 상담을 위해 AI를 찾는 학생들에 우려를 표했다. 김 교수는 “고민을 털어놓고 조언을 얻을 순 있지만, AI가 현재 제공하는 방안은 상담이 아니다”라며 “상담이 필요한 사람도 AI 활용을 상담으로 오해해 진짜 도움을 받지 못할 수 있는 점이 우려스럽다”고 말했다.
또한 심리상담센터는 “학생들이 가능한 실제 관계 안에서 서로의 고민을 나누고 의지하며, 필요한 경우 정신건강의학과 또는 심리상담센터에 방문해 적절한 도움을 받을 수 있기를 바란다”고 조언했다.
등록된 댓글이 없습니다.
- 1
- 2
- 3
- 4
- 5






