The Generative AI Paradox on Evaluation: What It Can Solve, It May Not Evaluate
Este artigo demonstra que, apesar de sua excelência em tarefas de geração, os Grandes Modelos de Linguagem (LLMs) apresentam desempenho significativamente inferior e, por vezes, não confiável em tarefas de avaliação, revelando uma lacuna crítica entre a capacidade de gerar e a de avaliar corretamente.