Examining Users' Behavioural Intention to Use OpenClaw Through the Cognition--Affect--Conation Framework

본 연구는 436 명의 OpenClaw 사용자 데이터를 구조방정식 모형으로 분석하여, 개인화·지능성·상대적 우위와 같은 인지적 요인이 긍정적 정서를, 사생활 침해·알고리즘 불투명성·위험 인식과 같은 요인이 불신을 유발하며, 이러한 정서적 반응이 최종적으로 시스템 사용 의도에 영향을 미친다는 CAC(인지 - 정서 - 의도) 프레임워크를 규명했습니다.

Yiran Du

게시일 2026-03-13
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🤖 연구의 핵심: "로봇 도우미 (OpenClaw) 를 고용할까?"

이 연구는 사람들이 OpenClaw라는 AI 를 어떻게 생각하는지, 그리고 그 생각이 실제 사용으로 이어지는지 알아봤습니다. OpenClaw 는 단순히 대화만 하는 챗봇이 아니라, **사용자를 대신해서 파일을 정리하거나 작업을 자동으로 수행하는 '자율형 AI 비서'**입니다.

연구팀은 사람들의 마음을 **3 단계 과정 (생각 → 감정 → 행동)**으로 나누어 분석했습니다. 이를 '생각 - 감정 - 행동 (Cognition-Affect-Conation)' 프레임워크라고 부르는데, 마치 새로운 식당을 방문하는 과정과 비슷합니다.

1 단계: 생각 (Cognition) - "이 식당이 어떤 곳이지?"

사람들은 먼저 이 AI 가 어떤지 '생각'을 합니다. 이때 두 가지 부류의 생각이 생깁니다.

  • 👍 좋은 생각 (촉진 요인):

    • 맞춤형 서비스: "내 취향에 딱 맞게 해주는구나!" (지각된 개인화)
    • 똑똑함: "내 말을 잘 알아듣고 똑똑하게 일을 처리하네!" (지각된 지능)
    • 이득: "기존 도구보다 훨씬 빠르고 편하네!" (상대적 우위)
    • *이런 생각이 들면 사람들은 이 식당 (AI) 을 **좋아 (Attitude)*하게 됩니다.
  • 👎 나쁜 생각 (저해 요인):

    • 사생활 걱정: "내 개인 정보를 다 훔쳐보지 않을까?" (사생활 우려)
    • 불투명함: "무슨 원리로 일을 하는지 도통 모르겠어." (알고리즘 불투명성)
    • 위험성: "실수해서 큰일 날까 봐 무서워." (지각된 위험)
    • *이런 생각이 들면 사람들은 이 식당을 **불신 (Distrust)*하게 됩니다.

2 단계: 감정 (Affect) - "이 식당이 마음에 들어?"

생각이 쌓이면 감정이 생깁니다.

  • 좋은 생각이 많으면 → "이거 진짜 좋아! 사용해보고 싶어!" (긍정적인 태도)
  • 나쁜 생각이 많으면 → "이거 믿을 수 없어. 무서워." (불신)

3 단계: 행동 (Conation) - "결국 갈까 말까?"

마지막으로 감정이 실제 행동을 결정합니다.

  • 좋아하는 마음이 강하면 → "내일도 꼭 갈게!" (사용 의도 증가)
  • 불신하는 마음이 강하면 → "절대 안 갈 거야." (사용 의도 감소)

🔍 연구 결과: 무엇이 사람들을 움직이게 했나?

연구팀은 OpenClaw 를 실제로 써본 사람 436 명에게 설문을 하고, 이 과정을 수학적으로 분석했습니다. 결과는 다음과 같습니다.

  1. 좋아하는 마음 (Attitude) 이 가장 중요해요!

    • 사람들이 AI 를 "좋아하면" 자연스럽게 사용하려는 마음이 생깁니다.
    • 특히 AI 가 얼마나 똑똑한지, 내게 얼마나 잘 맞춰주는지, 기존 방법보다 얼마나 편한지가 '좋아하는 마음'을 만드는 핵심 열쇠였습니다.
  2. 불신 (Distrust) 은 강력한 방해꾼이에요.

    • 사람들이 AI 를 "불신하면" 사용 의도가 확 떨어집니다.
    • 내 정보가 안전할까? (사생활), 어떻게 작동하는지 알 수 있을까? (불투명함), 실수하면 어떡하지? (위험) 에 대한 걱정이 불신을 키웠습니다.
  3. 결론:

    • 사람들은 편리함과 똑똑함 때문에 AI 를 좋아하게 되지만, 불안감과 불투명함 때문에 불신하게 됩니다.
    • 결국, 좋아하는 마음이 사용 의도를 높이는 가장 큰 동력이지만, 불신은 그 마음을 무너뜨리는 강력한 장벽이 됩니다.

💡 이 연구가 우리에게 주는 교훈 (실생활 팁)

이 연구는 AI 개발자나 디자이너들에게 다음과 같은 조언을 줍니다.

  • 🌟 "더 똑똑하고, 더 친절하게 만들어라."
    • 사용자의 취향을 잘 파악하고, 기존보다 훨씬 편하게 일을 처리해준다면 사람들은 AI 를 좋아하게 됩니다.
  • 🛡️ "하지만, 문을 열어놓고 신뢰를 줘라."
    • AI 가 어떻게 일하는지 투명하게 보여주고 (블랙박스 아님), 사용자의 정보를 안전하게 보호한다고 확신시켜야 합니다. 그래야 사람들이 "이거 믿고 써도 되겠다"라고 생각하게 됩니다.

한 줄 요약:

"OpenClaw 같은 AI 비서를 쓰게 하려면, '똑똑하고 편하다'는 생각으로 사람을 설득하는 동시에, '안전하고 투명하다'는 생각으로 사람의 불안을 잡아줘야 합니다."

이 연구는 우리가 새로운 기술을 받아들일 때, 단순히 기능만 좋은 게 아니라 심리적 안정감이 얼마나 중요한지 보여줍니다.