Enhancing Debunking Effectiveness through LLM-based Personality Adaptation

이 논문은 빅 5 성격 특성에 기반한 프롬프트를 통해 대형 언어 모델 (LLM) 이 가짜 뉴스에 대한 맞춤형 debunking 메시지를 생성하고, 또 다른 LLM 을 자동 평가자로 활용해 일반적 메시지보다 설득력이 높음을 입증하는 동시에 윤리적 문제도 제기합니다.

Pietro Dell'Oglio, Alessandro Bondielli, Francesco Marcelloni, Lucia C. Passaro

게시일 Wed, 11 Ma
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"거짓 뉴스 **(Fake News)에 대해 다룹니다.

기존의 사실 확인 (Fact-checking) 은 마치 **"모든 사람에게 똑같은 크기의 원피스를 입히는 것"**과 같았습니다. 하지만 사람들은 성향이 다르고, 같은 말도 사람에 따라 다르게 받아들입니다. 이 연구는 거짓 뉴스를 바로잡는 메시지를 각 사람의 '성격'에 맞춰 재탄생시키는 방법을 제안합니다.

이 내용을 쉽게 이해할 수 있도록 몇 가지 비유로 설명해 드릴게요.


1. 문제: "일괄 처방전"은 효과가 없다

지금까지 거짓 뉴스를 바로잡는 메시지는 모두 똑같았습니다. "이건 사실이 아닙니다"라고 딱 잘라 말했죠. 하지만 사람들은 다릅니다.

  • 어떤 사람은 친구처럼 부드럽게 말해주면 믿습니다.
  • 어떤 사람은 논리적이고 딱딱한 데이터를 보여줘야 믿습니다.
  • 어떤 사람은 감정적으로 불안해할 때는 오히려 더 의심합니다.

이 연구는 **"사람마다 성격을 분석해서, 그 사람에게 가장 잘 통하는 말투로 거짓 뉴스를 바로잡자"**고 제안합니다.

2. 해결책: AI 가 '마음의 거울'을 만든다

연구진은 **거대 언어 모델 **(LLM, AI)을 두 가지 역할로 활용했습니다.

역할 1: '변신하는 작가' (개인화 생성)

AI 에게 "너는 이제부터 **A 라는 성격 **(외향적이고, 감정적으로 불안한 사람)을 위해 글을 써줘"라고 시켰습니다.

  • 예시: 같은 "백신 관련 거짓말"을 바로잡는 내용이라도,
    • 외향적인 사람에게는: "함께 모여서 진실을 공유해요!"처럼 활기차고 사회적 메시지로 바꿉니다.
    • 신중한 사람에게는: "자세한 데이터를 확인해 보니 이 부분은 틀렸습니다"처럼 차분하고 사실 위주로 바꿉니다.
    • 감정적으로 불안한 사람에게는: "당황하지 마세요, 사실은 이렇게 해결되었습니다"라고 안심시키는 톤으로 바꿉니다.

이렇게 AI 가 32 가지의 다른 성격 유형에 맞춰 메시지를 32 가지 버전으로 만들어낸 것입니다. 마치 옷가게에서 고객에게 딱 맞는 옷을 재단해 주는 것과 같습니다.

역할 2: '성격이 다른 심사위원' (자동 평가)

그런데 누가 이 메시지가 잘 맞는지 판단할까요? 사람을 모으는 건 비용도 많이 들고 시간도 걸립니다. 그래서 연구진은 또 다른 AI를 심판으로 세웠습니다.

  • 이 AI 심사위원도 "나는 B 라는 성격이야"라고 역할을 부여받습니다.
  • 그리고 "내 성격에 맞춰 쓴 이 메시지가 얼마나 설득력 있을까? (1 점부터 7 점까지)"라고 점수를 매기게 했습니다.

이렇게 AI 가 AI 를 평가하는 방식을 통해, 수많은 실험을 빠르고 저렴하게 진행할 수 있었습니다.

3. 주요 발견: "맞춤형이 승리한다"

실험 결과는 매우 명확했습니다.

  1. 맞춤형 메시지가 압도적으로 효과적:
    모든 성격의 사람에게 똑같은 메시지를 주는 것보다, 그 사람의 성격에 딱 맞는 메시지를 주는 것이 훨씬 설득력이 높았습니다. 마치 "내 취향을 아는 친구가 추천한 영화"가 "누구나 보는 영화"보다 더 기대되는 것과 같습니다.

  2. 성격에 따른 반응 차이:

    • **개방성 **(Openness)이 높은 사람들은 새로운 정보에 열려 있어 메시지에 잘 반응했습니다.
    • **신경증 **(Neuroticism, 감정 불안정)이 높은 사람들은 오히려 메시지를 의심하거나 거부감을 느꼈습니다. (불안한 마음은 방어기제를 작동시키기 때문입니다.)
  3. AI 심사위원도 성격이 다르다:
    연구에 사용된 AI 모델들 (Llama, Qwen 등) 마다 '성격'이 달랐습니다. 어떤 AI 는 너무 친절하게 ( generous ) 점수를 주고, 어떤 AI 는 까다롭게 (cautious) 점수를 주었습니다. 이는 **"AI 도 사람처럼 성향이 다르다"**는 것을 보여주며, 여러 AI 를 함께 쓰는 것이 더 정확한 결과를 준다는 교훈을 줍니다.

4. 결론과 경고: "양날의 검"

이 연구는 거짓 뉴스를 막는 강력한 무기가 될 수 있습니다. 전문가들이 각자의 성향에 맞는 메시지를 만들어 내면, 사람들이 거짓말에 속지 않고 진실을 받아들이기 훨씬 쉬워질 것입니다.

하지만 동시에 경고도 필요합니다.

  • 이 기술은 거짓 뉴스를 바로잡는 데 쓰일 수도 있지만, 반대로 **선전 **(Propaganda)에 악용될 수도 있습니다.
  • "이 사람의 성향을 분석해서, 그 사람이 가장 쉽게 넘어갈 수 있는 가짜 뉴스를 만들어 퍼뜨리는 것"도 이 기술을 이용하면 가능해지기 때문입니다.

요약

이 논문은 **"사람마다 마음이 다르니, 거짓 뉴스를 바로잡는 말도 사람마다 다르게 해야 한다"**는 아이디어를 AI 로 구현해 보았습니다. 결과는 성공적이었으며, AI 가 맞춤형 진리 전달자가 될 수 있음을 증명했습니다. 다만, 이 강력한 기술을 어떻게 윤리적으로 사용할 것인지에 대한 고민이 필요하다고 말합니다.