Beyond the Interface: Redefining UX for Society-in-the-Loop AI Systems

이 논문은 결정적 시스템을 위한 기존 UX 프레임워크의 한계를 지적하고, 사회-기술적 역동성을 반영하기 위해 정확도, 운영 지연, 적응 시간, 신뢰라는 네 가지 사회기술적 지표를 중심으로 AI 시스템의 사용자 경험을 인프라와 거버넌스를 포괄하는 다층적 개념으로 재정의하는 새로운 평가 체계를 제안합니다.

Nahal Mafi, Sahar Maleki, Babak Rahimi Ardabili, Hamed Tabkhi

게시일 2026-03-06
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 인공지능 (AI) 이 우리 삶에 깊숙이 들어오면서, '사용자 경험 (UX)'이라는 개념이 어떻게 변해야 하는지 설명하는 흥미로운 연구입니다.

기존의 컴퓨터 프로그램과 달리, AI 는 100% 확실한 답을 주지 않고 "아마도 이렇게일 거야"라고 확률적으로 말하기 때문에, 우리가 AI 를 대하는 방식도 완전히 달라져야 한다는 것이 핵심입니다.

이 복잡한 내용을 일상적인 비유로 쉽게 풀어보겠습니다.


🚗 비유: "자율주행 자동차와 운전기사"

과거의 컴퓨터 프로그램은 완벽하게 정해진 길만 달리는 기차와 같았습니다.

  • 기존 UX (Pre-AI): 사용자가 버튼을 누르면 기차는 정해진 대로 움직였습니다. 문제는 "버튼이 잘 눌리는가?", "화면이 보기 좋은가?"였습니다. 기차가 길을 잘못 들면 그것은 기차 자체의 고장이었지, 운전기사의 책임이 아니었습니다.

하지만 지금의 AI 는 초능력을 가진 자율주행 자동차입니다.

  • 새로운 UX (Post-AI): 차가 스스로 길을 찾지만, 가끔은 "저기 사람이 있는가? 아니면 나무인가?"라고 헷갈려 하거나, 갑자기 "위험하다!"라고 소리치기도 합니다.
  • 이때 운전기사 (사용자) 는 단순히 핸들을 잡는 사람이 아니라, **차의 판단을 검토하고 최종 결정을 내리는 '감시자'이자 '파트너'**가 됩니다.

이 논문은 **"AI 가 헷갈릴 때, 운전기사 (사람) 가 어떻게 하면 가장 잘 도와줄 수 있을까?"**에 대한 새로운 규칙을 제안합니다.


🔍 이 논문이 발견한 3 가지 중요한 사실

연구팀은 보안 감시 시스템과 같은 실제 현장에서 269 명 이상의 관계자 (경찰, 사장님, 보안 요원 등) 를 인터뷰하고 AI 시스템을 직접 만들어 테스트했습니다. 그 결과 다음과 같은 점을 발견했습니다.

1. "오류"는 단순히 기술적 문제가 아니라, 사람의 스트레스입니다.

  • 상황: AI 가 "도둑이 왔다!"라고 거짓으로 알람을 울리면 (거짓 경보), 보안 요원은 매번 뛰쳐나와 확인해야 합니다.
  • 결과: AI 가 너무 자주 실수하면, 요원들은 "이 시스템은 쓸모없다"라고 생각하거나, 반대로 "이번엔 진짜인가?"라고 너무 긴장하게 됩니다.
  • 교훈: AI 의 정확도 (오류율) 는 단순히 숫자가 아니라, 사람의 피로도와 신뢰도를 직접 결정합니다.

2. "사람이 개입한다 (Human-in-the-Loop)"는 건 단순한 안전장치가 아니라, 디자인의 핵심입니다.

  • 과거에는 AI 가 틀리면 사람이 고치는 것을 '기술적 안전장치'로만 봤습니다.
  • 하지만 이 논문은 **"사람이 AI 를 가르치고, AI 가 사람을 도와주는 파트너십"**으로 봐야 한다고 말합니다.
  • 비유: AI 가 초보 운전기사라면, 사람은 그 옆에 앉은 코치입니다. 코치는 AI 가 실수할 때 "아니야, 저건 사람이 아니야"라고 알려주면서, AI 가 더 똑똑해지도록 도와줍니다. 이 과정이 잘 설계되어야만 AI 를 믿고 쓸 수 있습니다.

3. 새로운 평가 기준이 필요합니다.

기존의 "화면이 예쁜가?", "버튼이 잘 눌리는가?"라는 기준만으로는 AI 시스템을 평가할 수 없습니다. 연구팀은 다음과 같은 4 가지 새로운 지표를 제안합니다.

기존 지표 (과거) 새로운 지표 (이 논문 제안) 일상적인 비유
정확도 정확도 (Accuracy) AI 가 얼마나 자주 "거짓 경보"를 울리는가? (너무 자주 울리면 귀가 먹먹해짐)
속도 작동 지연 (Latency) 경보가 울린 후, 실제 사람이 행동하기까지 걸리는 시간. (지나치게 느리면 위급상황에 대처 못 함)
설치 시간 적응 시간 (Adaptation Time) 새로운 AI 시스템을 도입해서 조직이 완전히 익숙해지기까지 걸리는 시간. (너무 길면 도입 자체가 실패함)
사용성 신뢰 (Trust) 사람들이 AI 를 얼마나 믿고 맡길 수 있는가? (AI 가 통제 가능한 범위에서 작동하는지 느껴져야 함)

💡 결론: "사회가 함께 참여하는 시스템"

이 논문의 가장 큰 메시지는 **"AI 시스템은 기술만의 문제가 아니라, 조직과 사회가 함께 만들어가는 것"**이라는 점입니다.

  • 과거: 컴퓨터를 쓰는 건 '사용자'의 문제였다.
  • 현재와 미래: AI 를 쓰는 건 '사회 (Organization)'의 문제가 되었다.

AI 가 실수했을 때 누가 책임을 지는지, 어떻게 훈련시키는지, 조직의 규칙과 어떻게 맞물리는지가 모두 '사용자 경험 (UX)'의 일부입니다.

한 줄 요약:

"AI 는 완벽한 신이 아니라, 실수할 수 있는 초능력 파트너입니다. 그래서 우리는 AI 가 실수할 때 우리가 어떻게 반응하고, 어떻게 함께 성장할지 설계하는 **'새로운 운전 매뉴얼 (UX)'**이 필요합니다."

이 연구는 우리가 AI 시대에 살아가면서, 단순히 화면을 예쁘게 만드는 것을 넘어 사람과 기계가 어떻게 서로를 신뢰하고 협력할지에 대한 근본적인 질문을 던지고 있습니다.