The Generative AI Paradox on Evaluation: What It Can Solve, It May Not Evaluate
Diese Studie zeigt, dass Large Language Models bei Bewertungsaufgaben signifikant schlechter abschneiden als bei Generierungsaufgaben und dabei oft unzuverlässige Bewertungen liefern, was die Notwendigkeit unterstreicht, die Zuverlässigkeit von KI-Modellen als Evaluatoren kritisch zu hinterfragen.