AI Act Evaluation Benchmark: An Open, Transparent, and Reproducible Evaluation Dataset for NLP and RAG Systems
이 논문은 EU AI 법규 준수를 위한 NLP 및 RAG 시스템 평가를 위해, 도메인 지식과 대규모 언어 모델을 결합하여 위험 분류, 조항 검색, 의무 생성, 질문 답변 작업을 포함한 개방적이고 투명하며 재현 가능한 평가 데이터셋을 구축하고 그 유효성을 입증한 연구입니다.