CREMD: Crowd-Sourced Emotional Multimodal Dogs Dataset

이 논문은 다양한 제시 모드와 애너레이터 특성이 개 감정 인식에 미치는 영향을 분석하기 위해 923 개의 멀티모달 비디오 클립으로 구성된 CREMD 데이터셋을 소개하고, 시각적 맥락 추가가 합의도를 높였으며 비소유자와 남성 애너레이터가 더 높은 일관성을 보였음을 규명합니다.

Jinho Baek, Houwei Cao, Kate Blackwell

게시일 2026-02-18
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 실험실: "개 영상"을 어떻게 보여줄까? (CREMD 데이터셋)

연구자들은 923 개의 개 영상 클립을 준비했습니다. 그리고 이 영상들을 볼 때 사람들이 감정을 어떻게 다르게 느끼는지 알아보기 위해 세 가지 다른 방식으로 영상을 보여줬습니다.

  • 📸 사진처럼 (NCNA): 개 얼굴만 잘라낸 영상. 배경도 소리도 없습니다. (오직 개만!)
  • 🎬 영화처럼 (YCNA): 개가 있는 전체 장면은 보이지만 소리는 끄고 있습니다. (상황은 알지만 소리는 못 듣습니다.)
  • 🎧 극장처럼 (YCYA): 원래 영상 그대로. 배경도, 개가 짖는 소리도 다 들립니다. (가장 생생한 경험)

🔍 비유:
마치 요리 시식회를 연상해보세요.

  • NCNA: 소금만 맛보는 것 (재료 본연의 맛만 확인).
  • YCNA: 요리를 다 만들어서 보지만 맛은 보지 않는 것 (색과 모양으로 판단).
  • YCYA: 요리를 다 먹고 소스까지 맛보는 것 (가장 완벽한 경험).

연구자들은 이 세 가지 방식을 통해 "소리와 배경이 있으면 우리가 개 감정을 더 잘 알 수 있을까?"를 확인했습니다.


2. 결과 1: "소리와 배경"이 주는 영향

  • 배경 (시각) 은 중요해요: 개가 어디에 있는지, 무엇을 하고 있는지 보여주는 배경 화면이 있으면 사람들이 감정을 맞추는 데 훨씬 더 동의했습니다. (예: "공을 물고 있는 개"를 보면 '신난다'고 쉽게 알 수 있음)
  • 소리 (오디오) 는 애매해요: 소리가 있다고 해서 사람들이 감정을 더 잘 맞춘다는 확실한 증거는 나오지 않았습니다. (연구 설계상 소리가 들리는 영상 중 '배경이 없는' 영상을 만들지 못했기 때문입니다.)
  • 하지만 소리는 '확신'을 줍니다: 소리가 들리면 사람들은 "아, 이 개는 분노구나" 혹은 "무서워"라고 판단할 때 더 자신 있게 답했습니다. 특히 '분노'나 '공포' 같은 강렬한 감정을 짖는 소리로 구별할 때 확신이 생겼습니다.

3. 결과 2: "누가 보느냐"에 따라 달라지는 놀라운 사실

가장 재미있는 부분은 누가 영상을 보느냐에 따라 감정 해석이 완전히 다르게 나왔다는 점입니다.

🐶 개를 키우는 사람 vs 개를 키우지 않는 사람

  • 예상: 개를 키우는 사람이 개 감정을 더 잘 알겠지?
  • 현실: 개를 키우지 않는 사람이 오히려 의견이 더 일치했습니다.
  • 이유 (비유): 개를 키우는 사람은 "내 강아지는 저렇게 하면 화난 거야"라는 개인적인 경험이 있어서, 다른 개를 볼 때도 그 감정을 투영할 수 있습니다. 하지만 개를 키우지 않는 사람은 오직 눈에 보이는 행동 (꼬리 흔들기, 귀 모양 등) 만 보고 판단하므로, 서로의 의견이 더 비슷하게 모였습니다.

👩 여성 vs 👨 남성

  • 예상: 여성이 감정 표현에 더 민감해서 더 잘 알겠지?
  • 현실: 남성이 오히려 의견이 더 일치했습니다.
  • 이유: 여성은 개가 가진 미묘한 감정 (예: "조금 불안해 보이는데, 동시에 기대도 하고 있어") 을 여러 가지로 해석할 수 있어 의견이 분산될 수 있습니다. 반면 남성은 더 명확하고 뚜렷한 신호 (예: "화났어", "기뻐") 에 집중하는 경향이 있어 의견이 하나로 모였습니다.

🎓 전문가 (훈련사 등) vs 일반인

  • 예상: 전문가가 가장 잘 알겠지?
  • 현실: 맞습니다! 전문가들이 가장 높은 일치율을 보였습니다.
  • 이유: 훈련사나 동물 보호소 종사자들은 수많은 개를 보며 객관적인 기준을 갖췄기 때문에, 개인적인 감정이 섞이지 않고 일관되게 감정을 판단했습니다.

💡 결론: 우리가 배운 교훈

이 연구는 우리에게 중요한 메시지를 줍니다.

  1. 개 감정은 복잡하다: 개는 사람처럼 말로 감정을 표현하지 않습니다. 그래서 우리가 해석할 때 **배경 (상황)**과 소리가 중요하지만, 사람마다 해석하는 방식이 다릅니다.
  2. 전문가도, 일반인도 다 필요하다: 개를 키우는 사람의 '감성적인 이해'와 전문가의 '객관적인 판단', 그리고 일반인의 '순수한 관찰'이 모두 섞여야 가장 정확한 개 감정 분석이 가능합니다.
  3. AI 를 만들 때 조심하자: 만약 우리가 이 데이터를 바탕으로 AI(인공지능) 를 만든다면, "누가 이 데이터를 보았는가?"를 고려해야 합니다. 특정 성별이나 개 소유자만 데이터를 보게 되면 AI 가 편향된 판단을 할 수 있기 때문입니다.

한 줄 요약:

"개 감정을 읽는 것은 마치 모호한 그림을 보는 것과 같습니다. 배경을 알려주면 더 잘 보이고, 소리를 들으면 더 확신하게 되지만, 누가 보느냐에 따라 그 그림이 다르게 해석될 수 있습니다. 그래서 다양한 사람들이 함께 보아야 가장 정확한 그림을 완성할 수 있습니다!"

이 연구는 앞으로 개들의 감정을 더 잘 이해하고, 반려동물의 행복을 지키는 데 도움을 줄 기술들을 개발하는 데 중요한 기초 자료가 될 것입니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →