ViPlan: A Benchmark for Visual Planning with Symbolic Predicates and Vision-Language Models

O artigo apresenta o ViPlan, o primeiro benchmark de código aberto que compara abordagens de planejamento simbólico com VLMs como fundamentadores versus planejamento direto com VLMs em dois domínios visuais, revelando que a eficácia de cada método depende do domínio (sendo o fundamentador superior em Blocksworld e o planejador direto em robótica doméstica) e que o Chain-of-Thought não oferece benefícios consistentes.

Matteo Merler, Nicola Dainese, Minttu Alakuijala + 5 more2026-03-04🤖 cs.AI

HSSBench: Benchmarking Humanities and Social Sciences Ability for Multimodal Large Language Models

Este artigo apresenta o HSSBench, um novo benchmark multilíngue com mais de 13.000 amostras e um pipeline de geração de dados colaborativo, projetado especificamente para avaliar e superar as limitações dos Modelos de Linguagem Grandes Multimodais (MLLMs) em tarefas de Humanidades e Ciências Sociais que exigem raciocínio interdisciplinar horizontal.

Zhaolu Kang, Junhao Gong, Jiaxu Yan + 15 more2026-03-04🤖 cs.AI

Frame Guidance: Training-Free Guidance for Frame-Level Control in Video Diffusion Models

O artigo apresenta o Frame Guidance, um método sem treinamento que permite o controle de geração de vídeos em nível de quadro (como keyframes, estilos e esboços) em modelos de difusão existentes, utilizando técnicas de processamento de latente para reduzir o uso de memória e garantir coerência global sem a necessidade de ajuste fino do modelo.

Sangwon Jang, Taekyung Ki, Jaehyeong Jo + 4 more2026-03-04🤖 cs.AI

Perception-R1: Advancing Multimodal Reasoning Capabilities of MLLMs via Visual Perception Reward

O artigo apresenta o Perception-R1, um método que aprimora o raciocínio multimodal de Grandes Modelos de Linguagem Multimodais (MLLMs) ao introduzir uma recompensa de percepção visual baseada em verificação de consistência, superando as limitações dos métodos atuais de Aprendizado por Reforço com Recompensas Verificáveis (RLVR) e alcançando desempenho de ponta com poucos dados de treinamento.

Tong Xiao, Xin Xu, Zhenya Huang + 4 more2026-03-04🤖 cs.AI

You Only Fine-tune Once: Many-Shot In-Context Fine-Tuning for Large Language Models

Este artigo propõe o ManyICL, uma abordagem de ajuste fino em contexto com muitos exemplos que utiliza um novo objetivo de treinamento para tratar todas as respostas no contexto como alvos supervisionados, reduzindo significativamente a lacuna de desempenho entre o aprendizado em contexto e o ajuste fino dedicado enquanto mitiga o esquecimento catastrófico.

Wenchong He, Liqian Peng, Zhe Jiang + 1 more2026-03-04🤖 cs.AI

LLM Probability Concentration: How Alignment Shrinks the Generative Horizon

Este artigo introduz o "Fator de Ramificação" (BF) como uma métrica para quantificar como o alinhamento de modelos de linguagem reduz a diversidade de geração ao concentrar as probabilidades de saída, explicando por que modelos alinhados são mais previsíveis e como técnicas como o raciocínio em cadeia (CoT) exploram essa determinação para estabilizar respostas complexas.

Chenghao Yang, Sida Li, Ari Holtzman2026-03-04🤖 cs.AI

Skywork-Reward-V2: Scaling Preference Data Curation via Human-AI Synergy

O artigo apresenta o Skywork-Reward-V2, uma série de modelos de recompensa de código aberto que alcançam desempenho state-of-the-art em diversos benchmarks ao serem treinados no conjunto de dados SynPref-40M, criado por meio de um pipeline de curadoria em duas etapas que combina a qualidade da anotação humana com a escalabilidade da inteligência artificial.

Chris Yuhao Liu, Liang Zeng, Yuzhen Xiao + 9 more2026-03-04💬 cs.CL