Before and After ChatGPT: Revisiting AI-Based Dialogue Systems for Emotional Support

이 논문은 2020 년부터 2024 년 5 월까지의 연구를 분석하여, 정서적 지원을 위한 AI 대화 시스템이 과업 특화형 딥러닝 모델에서 대규모 언어 모델 (LLM) 기반 접근법으로 전환됨에 따라 언어적 유연성과 일반화 능력이 향상되었으나 신뢰성과 안전성 문제가 대두되었음을 규명하고 향후 발전 방향을 제시합니다.

Daeun Lee, Dongje Yoo, Migyeong Yang, Jihyun An, Christine B. Cha, Jinyoung Han

게시일 2026-03-16
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🌱 1. 배경: 왜 AI 챗봇이 필요한가요?

마음의 병은 전 세계적으로 큰 문제지만, 전문 상담사를 만나기는 돈, 시간, 거리 때문에 어렵고, 남에게 털어놓기 부끄러워하는 사람들도 많습니다.
이때 AI 챗봇이 등장했습니다. 마치 **24 시간 켜져 있는 '언제나 들을 준비가 된 친구'**처럼, 누구나 쉽게 심리적 지지를 받을 수 있게 해주는 도구인 셈이죠.

📚 2. 이야기의 두 시대: ChatGPT 이전 vs 이후

이 논문은 이 AI 챗봇의 역사를 **ChatGPT 가 세상에 등장하기 전 (2020 년2022 년 초)**과 **등장 후 (2022 년 말2024 년)**로 나누어 비교했습니다.

🕰️ 시대 1: ChatGPT 이전 (전문가 훈련생 시절)

이때의 AI 챗봇들은 **'특정 과목만 잘하는 영재'**들이었습니다.

  • 특징: 연구자들이 "공감하는 말"이나 "위로하는 말"을 만들기 위해 **매우 정교하고 복잡한 수식 (딥러닝 모델)**을 직접 설계했습니다.
  • 장점: 상담의 핵심인 '공감'을 위해 심리학 이론을 모델에 직접 심어주려 노력했습니다. (예: "상대방의 감정을 이해하려면 이렇게 말해야 해"라는 규칙을 학습시킴)
  • 단점: 너무 딱딱하고 유연하지 않았습니다. "우울할 때"만 잘 대답하고, "불안할 때"는 엉뚱한 말을 하기도 했죠. 마치 특정 상황에만 작동하는 자동판매기 같았습니다.

🚀 시대 2: ChatGPT 이후 (만능 천재 시절)

ChatGPT 가 등장하면서 상황이 완전히 바뀌었습니다. AI 챗봇들은 이제 **'모든 것을 알고 있는 만능 천재'**가 되었습니다.

  • 특징: 연구자들은 이제 복잡한 수식을 직접 짜지 않아도 됩니다. ChatGPT 같은 **거대 언어 모델 (LLM)**을 가져와서 "심리 상담을 해줘"라고만 말하면, 그 자체로 아주 자연스럽고 유창한 대화가 가능해졌습니다.
  • 장점: 말투가 매우 자연스럽고, 어떤 상황에서도 유연하게 대처합니다. 마치 실제 사람과 대화하는 듯한 편안함을 줍니다.
  • 단점: 하지만 '할루시네이션 (거짓말)' 문제가 생겼습니다. AI 가 심리 지식이 부족해서 사실과 다른 엉뚱한 조언을 하거나, 위험한 내용을 말할 수도 있다는 위험이 있습니다. 마치 **지식은 많지만 전문 자격증이 없는 '열정적인 대학생'**이 상담을 하는 것과 비슷합니다.

🔍 3. 연구의 핵심 발견 (무엇을 알아냈을까요?)

이 논문은 2020 년부터 2024 년까지 발표된 146 편의 연구를 분석했습니다.

  1. 연구가 폭발적으로 늘었다: 2020 년에는 9 편에 불과했던 연구가 2023 년에는 62 편으로 급증했습니다. (AI 열풍을 반영)
  2. 중국과 인도가 주도: 연구의 대부분은 중국과 인도에서 이루어졌으며, 한국도 꾸준히 참여하고 있습니다.
  3. 데이터의 부족: AI 를 가르치기 좋은 **'실제 심리 상담 대화 데이터'**가 매우 부족합니다. 상담 내용은 비밀이 지켜져야 하니까요. 그래서 연구자들은 ChatGPT 를 이용해 가상의 상담 데이터를 만들어내는 시도를 하고 있습니다.

⚠️ 4. 앞으로의 과제 (무엇이 해결되어야 할까?)

이 논문은 AI 상담 챗봇이 진짜 병원에서 쓰이려면 다음 세 가지가 해결되어야 한다고 말합니다.

  • 🧠 심리학 지식의 결합: AI 가 단순히 "말이 유창한 것"을 넘어, **진짜 심리학 이론 (예: 공감의 단계, 문제 해결 전략)**을 제대로 이해하고 적용해야 합니다.
  • 🛡️ 안전장치 마련: AI 가 엉뚱한 조언을 하거나, 사용자를 해칠 수 있는 말을 하지 않도록 **엄격한 안전장치 (규칙)**를 만들어야 합니다.
  • 📏 새로운 평가 기준: "말이 잘 나왔나?" (문법 점수) 만 보는 게 아니라, **"정말 위로가 되었나?", "안전했나?"**를 사람이 직접 평가할 수 있는 새로운 기준이 필요합니다.

💡 5. 결론: 요약하자면?

이 논문은 **"AI 상담 챗봇은 ChatGPT 등장으로 '유창한 대화'는 가능해졌지만, '진짜 치료'가 되려면 아직 갈 길이 멀다"**고 말합니다.

비유하자면:
ChatGPT 이전의 AI 는 **정해진 메뉴만 잘 내주는 '자동식당'**이었다면,
ChatGPT 이후의 AI 는 **어떤 주문이든 척척 해주는 '요리 실력 좋은 셰프'**가 되었습니다.
하지만 **심리 상담이라는 '진료'**를 하려면, 셰프가 **의사 면허 (심리학 지식)**를 따고, **위생 기준 (안전성)**을 철저히 지키는 과정이 더 필요합니다.

이 연구는 앞으로 AI 가 사람의 마음을 더 잘 이해하고, 안전하게 도울 수 있도록 기술과 심리학이 손잡아야 한다는 메시지를 전하고 있습니다.