From Variance to Invariance: Qualitative Content Analysis for Narrative Graph Annotation

Este trabalho apresenta um framework de anotação de grafos narrativos que integra princípios de análise de conteúdo qualitativo para reduzir erros e variabilidade humana, validado por meio de um experimento que demonstra como métricas de sobreposição superestimam a confiabilidade e representações localmente restritas melhoram o acordo entre anotadores em narrativas sobre inflação.

Junbo Huang, Max Weinig, Ulrich Fritsche + 1 more2026-03-05🤖 cs.AI

Rich Insights from Cheap Signals: Efficient Evaluations via Tensor Factorization

Este artigo propõe um modelo estatístico baseado em fatoração tensorial que combina dados abundantes de avaliadores automáticos com um conjunto limitado de rótulos humanos para realizar avaliações de modelos generativos em nível de prompt, superando gargalos de dados e oferecendo previsões precisas de preferências humanas com intervalos de confiança rigorosos.

Felipe Maia Polo, Aida Nematzadeh, Virginia Aglietti + 2 more2026-03-05🤖 cs.AI

Federated Inference: Toward Privacy-Preserving Collaborative and Incentivized Model Serving

Este artigo estabelece a Inferência Federada como um paradigma colaborativo distinto, focado na preservação da privacidade e no alinhamento de incentivos para permitir que modelos independentes colaborem na fase de inferência sem compartilhar dados ou parâmetros, analisando seus desafios fundamentais e comportamentos sistêmicos únicos.

Jungwon Seo, Ferhat Ozgur Catak, Chunming Rong + 1 more2026-03-05🤖 cs.AI

Learning to Generate and Extract: A Multi-Agent Collaboration Framework For Zero-shot Document-level Event Arguments Extraction

Este artigo apresenta um framework de colaboração multiagente baseado no ciclo "Propor-Avaliar-Revisar" e aprendizado por reforço para melhorar a extração de argumentos de eventos em nível de documento em cenários zero-shot, superando as limitações dos métodos existentes ao gerar e refinar dados sintéticos com maior coerência contextual e estrutural.

Guangjun Zhang, Hu Zhang, Yazhou Han + 4 more2026-03-05🤖 cs.AI

MoECLIP: Patch-Specialized Experts for Zero-shot Anomaly Detection

O artigo apresenta o MoECLIP, uma arquitetura de Mistura de Especialistas (MoE) que aprimora a Detecção de Anomalias Zero-Shot ao direcionar dinamicamente cada patch de imagem para um especialista LoRA especializado, utilizando separação ortogonal de recursos congelados e uma perda de quadro apertado equiangular (ETF) para evitar redundância e superar os métodos existentes em diversos domínios.

Jun Yeong Park, JunYoung Seo, Minji Kang + 1 more2026-03-05🤖 cs.AI

How to Model AI Agents as Personas?: Applying the Persona Ecosystem Playground to 41,300 Posts on Moltbook for Behavioral Insights

Este estudo aplica o Persona Ecosystem Playground (PEP) a 41.300 postagens do Moltbook para gerar e validar personas conversacionais distintas via agrupamento e geração aumentada por recuperação, demonstrando que essa modelagem baseada em personas pode representar eficazmente a diversidade comportamental de populações de agentes de IA.

Danial Amin, Joni Salminen, Bernard J. Jansen2026-03-05🤖 cs.AI

Fine-Tuning and Evaluating Conversational AI for Agricultural Advisory

Este artigo apresenta uma arquitetura híbrida de LLM que combina ajuste fino supervisionado com fatos agrícolas verificados e uma camada de costura para gerar conselhos seguros e culturalmente adequados, demonstrando que modelos menores otimizados superam modelos de ponta em precisão factual e custo para o aconselhamento agrícola de pequenos produtores na Índia.

Sanyam Singh, Naga Ganesh, Vineet Singh + 8 more2026-03-05🤖 cs.AI

Language Model Goal Selection Differs from Humans' in an Open-Ended Task

O estudo revela que, em tarefas de aprendizado abertas, os modelos de linguagem atuais divergem substancialmente dos humanos ao selecionar objetivos, tendendo a explorar soluções únicas ou apresentar baixo desempenho em vez de demonstrar a diversidade exploratória característica das pessoas, o que limita sua confiabilidade como substitutos em aplicações críticas.

Gaia Molinaro, Dave August, Danielle Perszyk + 1 more2026-03-05🤖 cs.AI

TTSR: Test-Time Self-Reflection for Continual Reasoning Improvement

O artigo propõe o TTSR, um framework de auto-reflexão que utiliza um único modelo de linguagem alternando entre os papéis de "Aluno" e "Professor" durante o teste para identificar fraquezas de raciocínio e gerar questões variantes direcionadas, melhorando assim o desempenho em tarefas de raciocínio matemático complexo sem necessidade de dados de treinamento externos.

Haoyang He, Zihua Rong, Liangjie Zhao + 3 more2026-03-05🤖 cs.AI