To Believe or Not To Believe: Comparing Supporting Information Tools to Aid Human Judgments of AI Veracity
이 논문은 생성형 AI 의 사실성 판단을 지원하기 위해 다양한 정보 도구 (전체 소스 텍스트, 발췌, LLM 설명) 를 비교한 사용자 연구를 통해, 발췌가 정확성과 속도 간 균형을 이루는 반면 LLM 설명은 부적절한 신뢰를 유발해 오류 탐지 능력을 저하시킨다는 점을 규명했습니다.