Evaluating Large Language Models for Multilingual Vulnerability Detection at Dual Granularities
이 논문은 7 개 프로그래밍 언어의 3 만 개 이상의 실제 취약점 패치를 활용하여 함수 및 라인 단위에서 대규모 언어 모델 (LLM) 이 기존 사전 학습 언어 모델 (PLM) 보다 다국어 취약점 탐지, 특히 고위험 취약점 식별에서 훨씬 우수한 성능을 보임을 실증적으로 규명했습니다.