Scaffolding Human-AI Collaboration: A Field Experiment on Behavioral Protocols and Cognitive Reframing

포춘 500 대 소매업체의 388 명 직원을 대상으로 한 현장 실험 결과, AI 를 '사고 파트너'로 재정의하는 인지적 개입은 문서 품질 향상에 기여했으나, 공동 사용을 의무화하는 행동적 개입은 오히려 생산성과 품질을 저하시켰으며, 연구는 AM/PM 세션 혼란과 편향된 평가 등 설계적 한계를 인정합니다.

원저자: Alex Farach, Alexia Cambon, Lev Tankelevitch, Connie Hsueh, Rebecca Janssen

게시일 2026-04-13
📖 3 분 읽기☕ 가벼운 읽기

이것은 아래 논문에 대한 AI 생성 설명입니다. 저자가 작성하거나 승인한 것이 아닙니다. 기술적 정확성을 위해서는 원본 논문을 참조하세요. 전체 면책 조항 읽기

Each language version is independently generated for its own context, not a direct translation.

🍳 실험의 배경: 도구는 다 같은데, 왜 결과는 다를까?

많은 회사가 최신 AI 도구 (마이크로소프트 코파일럿) 를 직원들에게 다 줬습니다. 하지만 "도구를 줬는데 왜 생산성은 제자리걸음일까?"라는 의문이 생겼습니다. 연구진은 **"도구 자체보다, 그 도구를 쓰는 '방법'과 '마인드'가 더 중요하지 않을까?"**라고 생각했습니다.

그래서 388 명의 Gap(구입) 직원들을 모아 두 가지 다른 '레시피'를 적용해 보았습니다.

🧪 두 가지 실험 레시피

연구진은 두 그룹을 나누어 서로 다른 방식으로 AI 를 사용하게 했습니다.

1. "엄격한 레시피" 그룹 (행동적 발판)

  • 방법: 두 사람이 짝을 지어, 반드시 "함께 말하며 (Create-Out-Loud) AI 에게 지시해야 한다"는 규칙을 강제했습니다.
    • 1 단계: 팀원끼리 팀즈 (Teams) 로 만나서 입으로 아이디어를 논의합니다.
    • 2 단계: 그 대화 내용을 녹음/기록합니다.
    • 3 단계: 그 기록을 AI 에게 주고 "이걸 바탕으로 문서를 써줘"라고 시킵니다.
  • 비유: 마치 **"요리할 때 반드시 두 사람이 함께 재료를 다듬고, 그 과정을 녹음해서 AI 로봇에게 "이걸로 요리해줘"라고 명령하는 것"**과 같습니다.

2. "마인드셋 훈련" 그룹 (인지적 발판)

  • 방법: AI 를 단순한 '검색 엔진'이나 '도구'가 아니라, **"생각을 함께 나누는 '파트너'나 '인턴'"**처럼 대하라고 교육했습니다.
    • "AI 가 모든 걸 다 해줄 거라고 기대하지 말고, 대화하듯 여러 번 질문하고 수정해라."
  • 비유: 마치 **"요리사가 AI 를 '만능 로봇'이 아니라 '재능 있는 조수'로 여기고, 그 조수와 대화하며 요리를 발전시키는 것"**과 같습니다.

📉 놀라운 결과: 규칙을 지킬수록 결과가 나빠졌다?

1. "엄격한 레시피"는 실패했습니다 (짝짓기 작업)

  • 결과: 규칙을 강제받은 그룹은 문서 품질이 떨어졌고, 아예 문서를 제출하지 못한 사람도 훨씬 많았습니다.
  • 이유:
    • 시간 낭비: 대화하고 녹음하고 지시하는 과정이 너무 번거로워, 정작 내용을 만드는 데 쓸 시간이 부족했습니다.
    • 기술적 문제: 두 사람이 동시에 연결되지 않거나, AI 가 대화 내용을 제대로 이해하지 못해 엉뚱한 결과가 나옵니다.
    • 비유: "요리할 때 재료를 다듬고 녹음하는 데 30 분을 다 써버려서, 정작 요리는 10 분 만에 급하게 해치운 꼴"이 된 것입니다. 규칙이 너무 빡빡해서 오히려 자유로운 창의성을 죽였습니다.

2. "마인드셋 훈련"은 일부 성공했습니다 (개인 작업)

  • 결과: AI 를 '파트너'로 대하라고 교육받은 그룹은 개인이 작성한 문서 중 '완벽한 점수'를 받은 비율이 높았습니다.
  • 이유: AI 를 대화하듯 여러 번 다듬으며 (반복 질문), 더 깊이 있는 내용을 뽑아냈기 때문입니다.
  • 비유: "조수와 대화하며 요리를 다듬은 요리사가, 마지막에 내놓은 요리가 더 맛있다"는 뜻입니다. 다만, 대부분의 사람이 이미 좋은 점수를 받아서 차이를 보기 어려웠습니다.

3. 사람들의 마음은 어떻게 변했을까?

  • 결과: 훈련을 받은 사람들은 "AI 를 실험해보고 싶다"는 마음이 더 커졌습니다.
  • 하지만: 연구진은 이것이 "진짜 훈련의 효과"라기보다는, 앞서 힘들었던 규칙 실험 (Task A) 에서의 스트레스가 풀리며 마음이 가벼워진 '회복' 현상일 가능성도 있다고 조심스럽게 말합니다.

💡 이 연구가 우리에게 주는 교훈

이 실험은 우리에게 다음과 같은 중요한 메시지를 줍니다:

  1. 강제적인 규칙은 역효과를 낼 수 있습니다: "AI 와 무조건 이렇게만 써라!"라고 딱딱한 규칙을 정하면, 오히려 사람들이 지쳐서 일을 못 하거나 질이 떨어질 수 있습니다. 유연하게 쓰는 것이 더 나을 수도 있습니다.
  2. 마음가짐 (마인드셋) 이 중요합니다: AI 를 '도구'가 아닌 '파트너'로 생각하게 교육하는 것이, 복잡한 규칙을 정하는 것보다 개인적인 성과에는 더 도움이 될 수 있습니다.
  3. 측정하는 방법이 중요합니다: AI 가 만든 글의 길이가 길면 점수가 잘 나온다는 편향이 있어서, 단순히 글자 수만 보고 평가하면 안 된다는 점도 발견했습니다.

🏁 결론

"AI 를 도입한다고 해서 무조건 일이 잘 되는 건 아닙니다. 어떻게 쓰느냐가 핵심입니다."

회사에서 AI 를 도입할 때, 무조건 "이렇게 쓰세요"라고 규칙을 정하기보다는, 직원들이 **AI 를 어떻게 대화하듯 활용할지 (마인드셋)**를 가르쳐 주는 것이 더 효과적일 수 있다는 것이 이 연구의 핵심입니다. 마치 요리할 때 레시피를 강요하기보다, 요리사의 감각을 키워주는 것이 더 맛있는 요리를 만들 수 있는 것과 같습니다.

연구 분야의 논문에 파묻히고 계신가요?

연구 키워드에 맞는 최신 논문의 일일 다이제스트를 받아보세요 — 기술 요약 포함, 당신의 언어로.

Digest 사용해 보기 →