HSSBench: Benchmarking Humanities and Social Sciences Ability for Multimodal Large Language Models

Este artigo apresenta o HSSBench, um novo benchmark multilíngue com mais de 13.000 amostras e um pipeline de geração de dados colaborativo, projetado especificamente para avaliar e superar as limitações dos Modelos de Linguagem Grandes Multimodais (MLLMs) em tarefas de Humanidades e Ciências Sociais que exigem raciocínio interdisciplinar horizontal.

Zhaolu Kang, Junhao Gong, Jiaxu Yan + 15 more2026-03-04🤖 cs.AI

Frame Guidance: Training-Free Guidance for Frame-Level Control in Video Diffusion Models

O artigo apresenta o Frame Guidance, um método sem treinamento que permite o controle de geração de vídeos em nível de quadro (como keyframes, estilos e esboços) em modelos de difusão existentes, utilizando técnicas de processamento de latente para reduzir o uso de memória e garantir coerência global sem a necessidade de ajuste fino do modelo.

Sangwon Jang, Taekyung Ki, Jaehyeong Jo + 4 more2026-03-04🤖 cs.AI

Perception-R1: Advancing Multimodal Reasoning Capabilities of MLLMs via Visual Perception Reward

O artigo apresenta o Perception-R1, um método que aprimora o raciocínio multimodal de Grandes Modelos de Linguagem Multimodais (MLLMs) ao introduzir uma recompensa de percepção visual baseada em verificação de consistência, superando as limitações dos métodos atuais de Aprendizado por Reforço com Recompensas Verificáveis (RLVR) e alcançando desempenho de ponta com poucos dados de treinamento.

Tong Xiao, Xin Xu, Zhenya Huang + 4 more2026-03-04🤖 cs.AI

You Only Fine-tune Once: Many-Shot In-Context Fine-Tuning for Large Language Models

Este artigo propõe o ManyICL, uma abordagem de ajuste fino em contexto com muitos exemplos que utiliza um novo objetivo de treinamento para tratar todas as respostas no contexto como alvos supervisionados, reduzindo significativamente a lacuna de desempenho entre o aprendizado em contexto e o ajuste fino dedicado enquanto mitiga o esquecimento catastrófico.

Wenchong He, Liqian Peng, Zhe Jiang + 1 more2026-03-04🤖 cs.AI

LLM Probability Concentration: How Alignment Shrinks the Generative Horizon

Este artigo introduz o "Fator de Ramificação" (BF) como uma métrica para quantificar como o alinhamento de modelos de linguagem reduz a diversidade de geração ao concentrar as probabilidades de saída, explicando por que modelos alinhados são mais previsíveis e como técnicas como o raciocínio em cadeia (CoT) exploram essa determinação para estabilizar respostas complexas.

Chenghao Yang, Sida Li, Ari Holtzman2026-03-04🤖 cs.AI

Skywork-Reward-V2: Scaling Preference Data Curation via Human-AI Synergy

O artigo apresenta o Skywork-Reward-V2, uma série de modelos de recompensa de código aberto que alcançam desempenho state-of-the-art em diversos benchmarks ao serem treinados no conjunto de dados SynPref-40M, criado por meio de um pipeline de curadoria em duas etapas que combina a qualidade da anotação humana com a escalabilidade da inteligência artificial.

Chris Yuhao Liu, Liang Zeng, Yuzhen Xiao + 9 more2026-03-04💬 cs.CL

Improving Classifier-Free Guidance in Masked Diffusion: Low-Dim Theoretical Insights with High-Dim Impact

Este artigo analisa teoricamente o efeito da Orientação Livre de Classificador (CFG) em modelos de difusão mascarada, demonstrando que o agendamento atual causa desequilíbrios nas transições e propondo uma nova abordagem simples que suaviza o transporte entre distribuições para melhorar a qualidade da geração em imagens e texto.

Kevin Rojas, Ye He, Chieh-Hsin Lai + 3 more2026-03-04📊 stat