On the Concept of Violence: A Comparative Study of Human and AI Judgments

이 논문은 물리적 폭력부터 상징적 행위까지 다양한 시나리오에 대한 인간과 대규모 언어 모델 (LLM) 의 폭력 판단을 체계적으로 비교함으로써, AI 가 모호한 도덕적 개념을 어떻게 해석하고 사회적 규범 형성에 영향을 미치는지 탐구합니다.

원저자: Mariachiara Stellato, Francesco Lancia, Chiara Galeazzi, Nico Curti

게시일 2026-02-20
📖 3 분 읽기☕ 가벼운 읽기

이것은 아래 논문에 대한 AI 생성 설명입니다. 저자가 작성하거나 승인한 것이 아닙니다. 기술적 정확성을 위해서는 원본 논문을 참조하세요. 전체 면책 조항 읽기

Each language version is independently generated for its own context, not a direct translation.

폭력의 개념: 인간과 AI 의 판단 차이 연구 (쉬운 설명)

이 논문은 "폭력"이라는 것이 정확히 무엇인지를 인간과 인공지능 (AI) 이 어떻게 다르게 생각하는지 비교한 흥미로운 연구입니다. 연구진은 라디오 청취자 3,000 여 명과 최신 AI 모델 18 개에게 22 가지의 다양한 상황 (예: 시위, 욕설, 무관심 등) 을 보여주고 "이게 폭력인가?"라고 물어보았습니다.

이 복잡한 연구를 마치 두 명의 요리사가 같은 재료를 가지고 다른 요리를 만드는 상황으로 비유해서 설명해 드리겠습니다.


1. 연구의 시작: 라디오 스튜디오에서의 실험

연구는 이탈리아 라디오 프로그램 'Chiacchiericcio'에서 시작되었습니다. 진행자가 청취자들에게 "시위대가 경찰을 때리는 것", "버스에서 누군가를 노려보는 것", "인터넷에서 욕설을 퍼붓는 것" 등 22 가지 상황을 제시하고, 이것이 **'폭력'인지, '폭력이 아닌지', 아니면 '상황에 따라 다르다 (depend-on)'**고 답하게 했습니다.

  • 인간 (청취자): 3,000 명 이상의 사람들이 참여했습니다.
  • AI (로봇 요리사): 최신 AI 모델 18 개가 같은 질문을 받았습니다.

2. 핵심 발견: 인간과 AI 의 '맛'이 다르다

연구 결과는 마치 **인간은 '감성적인 요리사'이고, AI 는 '규칙적인 자동 조리기'**처럼 행동한다는 것을 보여줍니다.

A. "상황에 따라 다르다"는 말은 AI 가 싫어해요

  • 인간: "음... 이건 폭력일 수도 있고 아닐 수도 있어. 상황에 따라 다르지!"라고 **중간 지대 (depend-on)**를 많이 선택했습니다. 인간은 맥락과 뉘앙스를 중요하게 생각합니다.
  • AI: "아니, 이건 폭력이야" 혹은 "아니, 폭력이 아니야"라고 명확하게 이분법적으로 답했습니다. AI 는 애매모호함을 싫어하고, 무조건 '폭력' 또는 '비폭력' 중 하나로 딱 잘라 말하려는 경향이 있습니다.
    • 비유: 인간은 "날씨가 흐려서 우산을 쓸지 말지 고민해 봐야지"라고 말하지만, AI 는 "구름이 있으니 우산 필수!"라고 즉각 결정해버립니다.

B. 인터넷 욕설 vs. 물리적 폭력

  • 인간: 인터넷에서 누군가에게 욕설을 하거나, 집단으로 괴롭히는 행위를 매우 강력한 폭력으로 여겼습니다. (90% 이상이 폭력이라고 답함)
  • AI: 같은 인터넷 욕설을 폭력이 아닐 가능성이 훨씬 높게 판단했습니다. (약 50% 만 폭력이라고 답함)
    • 비유: 인간은 "말이 칼보다 날카로울 수 있다"고 생각하지만, AI 는 "칼로 찌르지 않았으니 폭력이 아니다"라고 생각할 수 있습니다. AI 는 물리적인 타격을 더 폭력의 기준으로 삼는 경향이 있습니다.

C. "중단된 폭력"에 대한 오해

  • 상황: 연설자가 폭력을 부추기려다 진행자가 막아서서 말을 못 하게 한 경우.
  • 인간: "아, 폭력이 막혔으니 폭력이 아니야"라고 생각했습니다. (결과가 중요함)
  • AI: "아니, 폭력을 부추기는 말을 했으니 폭력이야"라고 생각했습니다. (의도와 내용만 중요함)
    • 비유: 인간은 "불을 끄려고 했으니 괜찮아"라고 하지만, AI 는 "불을 지르려던 마음이 있었으니 위험해"라고 판단합니다.

3. AI 모델들끼리도 의견이 갈려요

재미있는 점은 AI 모델들끼리도 의견이 일치하지 않았다는 것입니다.

  • 어떤 AI 는 "폭력이다"고 하고, 다른 AI 는 "아니다"고 했습니다.
  • 하지만 인간과 AI 가 모두 동의하는 경우는 명확한 폭력 (예: 총을 쏘는 행위) 이나 명확한 비폭력일 때였습니다.
  • 결론: AI 는 확실한 경우에는 인간과 비슷하지만, 모호하고 복잡한 사회적 상황에서는 인간과 다른 기준을 적용합니다.

4. 왜 이 연구가 중요할까요? (우리가 주의해야 할 점)

이 연구는 우리에게 중요한 경고를 줍니다.

  1. AI 는 '진리의 심판자'가 아닙니다: 우리는 AI 가 답을 주면 "아, 이게 정답이구나"라고 생각하기 쉽습니다. 하지만 AI 는 단순히 확률적으로 가장 그럴듯한 답을 내는 것일 뿐, 도덕적 판단을 하는 것이 아닙니다.
  2. 모호함이 사라집니다: 인간은 "상황에 따라 다르다"는 복잡한 진리를 인정하지만, AI 는 이를 깔끔하게 잘라버립니다. 우리가 AI 의 답변을 맹신하면, 세상의 복잡한 윤리적 문제들이 단순해지고 왜곡될 수 있습니다.
  3. 검색 엔진 vs 채팅 봇: 예전 검색 엔진은 다양한 의견 (뉴스, 블로그 등) 을 보여줬다면, 최신 AI 는 하나의 결론을 줍니다. 이는 마치 "모든 의견이 하나로 합쳐진 것"처럼 보이지만, 실제로는 AI 가 학습한 데이터의 편향만 반영한 것일 수 있습니다.

요약: 한 줄로 정리하면?

"인간은 폭력을 판단할 때 '상황과 맥락'을 고려해 유연하게 생각하지만, AI 는 규칙과 물리적 행위에 더 집중하며 모호함을 없애버립니다. 우리는 AI 의 답변을 절대적인 진리가 아니라, 참고용 도구로만 여겨야 합니다."

이 연구는 AI 가 우리 사회의 도덕적 기준을 어떻게 바꾸고 있는지, 그리고 우리가 AI 를 어떻게 대해야 하는지 생각해보게 만드는 중요한 연구입니다.

연구 분야의 논문에 파묻히고 계신가요?

연구 키워드에 맞는 최신 논문의 일일 다이제스트를 받아보세요 — 기술 요약 포함, 당신의 언어로.

Digest 사용해 보기 →