Using AI for User Representation: An Analysis of 83 Persona Prompts

이 논문은 27 편의 학술지에 게재된 83 개의 LLM 기반 사용자 페르소나 생성 프롬프트를 분석하여, 생성된 페르소나가 단일화되고 간략화되는 경향이 있으며 구조화된 형식과 동적 변수 사용이 일반화되고 있음을 규명하고, 이를 통해 계산적 페르소나의 확대가 사용자 표현에 미치는 함의를 논의합니다.

Joni Salminen, Danial Amin, Bernard Jansen

게시일 2026-03-04
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎭 비유: "AI 요리사에게 레시피를 주는 연구"

상상해 보세요. 여러분은 **'사용자 페르소나'**라는 이름의 가상의 캐릭터를 만들고 싶어 합니다. 이 캐릭터는 실제 사용자들을 대표하는 인형 같은 존재죠. 예전에는 이 인형들을 만들기 위해 연구자들이 직접 수많은 인터뷰를 하고, 데이터를 분석하며 수작업으로 정성들여 만들었습니다.

하지만 요즘은 **거대 언어 모델 (LLM, 예: 챗GPT 등)**이라는 초고속 AI 요리사가 등장했습니다. 연구자들은 이제 직접 요리하는 대신, AI 에게 **"이런 재료로 이런 요리를 만들어줘"**라고 말만 하면 (이를 **'프롬프트'**라고 합니다), AI 가 순식간에 요리를 만들어냅니다.

이 논문은 **27 편의 연구 논문에서 발견된 총 83 개의 '요리 레시피 (프롬프트)'**를 모아 분석했습니다. "AI 요리사들이 실제로 어떤 레시피를 쓰고, 어떤 요리를 만들어내는가?"를 살펴본 거죠.

🔍 주요 발견 사항 (3 가지 핵심 질문)

연구자들은 이 레시피들을 분석하며 세 가지 큰 질문을 던졌습니다.

1. 왜 연구자들은 AI 에게 레시피를 주는 걸까? (왜 쓰나?)

  • 주된 목적: 새로운 캐릭터를 만드는 것이 가장 많습니다 (80% 이상).
  • 기타 용도: 만든 캐릭터가 잘 작동하는지 테스트하거나, 특정 상황에서 이 캐릭터가 어떻게 반응할지 예측하는 데도 쓰입니다.
  • 비유: 마치 영화 감독이 배우를 뽑기 위해 오디션을 보거나, 시나리오를 써보는 것과 비슷합니다.

2. 어떻게 레시피를 작성하는 걸까? (어떻게 쓰나?)

  • 단순함 vs 복잡함: 어떤 레시피는 "한 마디로 캐릭터를 만들어줘"처럼 매우 간단하지만, 어떤 것은 12 단계에 걸친 복잡한 과정 (이미지 생성, 배경 설정, 행동 예측 등) 을 요구하기도 합니다.
  • 데이터의 혼합: 흥미롭게도, 연구자들은 AI 에게 **실제 데이터 (예: "이 회사의 고객 데이터" 같은 변수)**를 섞어서 주기도 합니다. 마치 "이 재료를 넣어서 요리해"라고 하는 것과 비슷하죠.
  • 구조화된 결과: 많은 연구자가 AI 에게 **JSON(컴퓨터가 읽기 쉬운 데이터 형식)**이나 표 형태로 결과를 요구합니다. 이는 캐릭터를 '이야기'보다는 '데이터 덩어리'로 취급하려는 경향이 강함을 보여줍니다.

3. 어떤 캐릭터가 만들어지는 걸까? (무엇이 나오나?)

  • 텍스트와 숫자 위주: AI 가 만들어낸 캐릭터는 대부분 **글자 (텍스트)**와 **숫자 (나이, 소득 등)**로 이루어져 있습니다.
  • 이미지의 부재: 고전적인 페르소나에는 캐릭터의 얼굴 사진이 필수였는데, AI 로 만든 캐릭터에는 사진이 거의 없습니다. (이미지 생성 AI 를 쓰는 경우는 드뭅니다.)
  • 간단한 정보: 과거의 정성적인 연구에서는 캐릭터의 깊은 내면과 풍부한 이야기를 중요시했지만, AI 가 만든 캐릭터는 나이, 직업, 성별 같은 **기본적인 통계 정보 (인구통계)**에 치중되어 있습니다. 마치 "이름, 나이, 직업만 적힌 이력서"처럼 간단하다는 뜻입니다.

⚠️ 문제점과 경고 (왜 걱정해야 할까?)

이 연구는 몇 가지 위험 신호를 발견했습니다.

  1. 이야기의 부재: AI 에게 "짧고 간결하게 써줘"라고 하면, 캐릭터가 매우 얕고 평면적이 됩니다. 사용자들의 복잡한 감정과 삶을 이해하는 '공감'을 위한 풍부한 이야기가 사라질 수 있습니다.
  2. 편향의 위험: 대부분의 연구가 GPT 모델 하나만 사용합니다. 다른 모델과 비교해 보지 않으니, 그 모델이 가진 편견 (예: 특정 성별이나 인종에 대한 고정관념) 이 그대로 캐릭터에 반영될 수 있습니다.
  3. 데이터의 오용: AI 가 가진 '지식'만으로 캐릭터를 만들면, 실제 사용자 데이터를 무시하게 될 수 있습니다. 마치 실제 고객 인터뷰 없이, AI 가 상상한 대로만 고객을 만드는 것과 같습니다.

💡 결론 및 제언

이 논문은 우리에게 다음과 같은 메시지를 전달합니다.

  • AI 는 강력한 도구지만, 마법 지팡이는 아닙니다. AI 를 이용해 캐릭터를 만들 때는 실제 사용자 데이터를 반드시 섞어주어야 합니다.
  • 이야기를 잊지 마세요. 숫자와 데이터만 나열하는 것이 아니라, 사용자의 삶과 감정을 이해할 수 있는 풍부한 이야기를 만들어야 합니다.
  • 검토가 필요합니다. AI 가 만든 캐릭터가 정말 공정한지, 다양한 사용자를 잘 대표하는지 사람이 꼼꼼히 확인해야 합니다.

한 줄 요약:

"AI 가 만들어주는 가상의 사용자 캐릭터는 빠르고 편리하지만, 너무 단순하고 편향될 수 있으니 실제 데이터와 인간의 깊은 이해를 바탕으로 조심스럽게 다듬어야 합니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →