Video-EM: Event-Centric Episodic Memory for Long-Form Video Understanding

O artigo apresenta o Video-EM, um framework sem treinamento que melhora a compreensão de vídeos longos ao transformar a tarefa de resposta a perguntas em uma construção episódica centrada em eventos, utilizando um agente de memória baseado em LLM para organizar, refinar e consolidar evidências temporais coerentes em uma linha do tempo compacta e confiável.

Yun Wang, Long Zhang, Jingren Liu, Jiaqi Yan, Zhanjie Zhang, Jiahao Zheng, Ao Ma, Run Ling, Xun Yang, Dapeng Wu, Xiangyu Chen, Xuelong Li2026-03-10💻 cs

UniUGG: Unified 3D Understanding and Generation via Geometric-Semantic Encoding

O artigo apresenta o UniUGG, o primeiro framework unificado para compreensão e geração de modalidades 3D, que integra um LLM, um decodificador espacial baseado em difusão latente e uma estratégia de aprendizado geométrico-semântico para realizar tarefas avançadas de geração de cenas 3D e perguntas visuais espaciais.

Yueming Xu, Jiahui Zhang, Ze Huang, Yurui Chen, Yanpeng Zhou, Zhenyu Chen, Yu-Jie Yuan, Pengxiang Xia, Guowei Huang, Xinyue Cai, Zhongang Qi, Xingyue Quan, Jianye Hao, Hang Xu, Li Zhang2026-03-10💻 cs

PhysGM: Large Physical Gaussian Model for Feed-Forward 4D Synthesis

O artigo apresenta o PhysGM, um modelo feed-forward que, utilizando o conjunto de dados PhysAssets e otimização por preferência direta (DPO), gera simulações 4D físicas de alta fidelidade a partir de uma única imagem em apenas um minuto, superando as limitações de métodos anteriores que dependem de otimização lenta e por cena.

Chunji Lv, Zequn Chen, Donglin Di, Weinan Zhang, Hao Li, Wei Chen, Yinjie Lei, Changsheng Li2026-03-10💻 cs

Efficient Diffusion-Based 3D Human Pose Estimation with Hierarchical Temporal Pruning

Este artigo apresenta um framework de estimativa de pose humana 3D baseado em difusão que utiliza uma estratégia de Poda Temporal Hierárquica (HTP) para reduzir drasticamente o custo computacional e acelerar a inferência, mantendo desempenho de ponta ao eliminar dinamicamente tokens de pose redundantes em níveis de quadro e semântico.

Yuquan Bi, Hongsong Wang, Xinli Shi, Zhipeng Gui, Jie Gui, Yuan Yan Tang2026-03-10💻 cs

PointSlice: Accurate and Efficient Slice-Based Representation for 3D Object Detection from Point Clouds

O artigo apresenta o PointSlice, um novo método de representação baseado em fatias que converte nuvens de pontos 3D em dados 2D e utiliza uma Rede de Interação de Fatias (SIN) para alcançar um equilíbrio superior entre precisão e eficiência na detecção de objetos 3D, superando as abordagens tradicionais baseadas em voxels e pilares em velocidade e número de parâmetros com perda mínima de acurácia.

Liu Qifeng, Zhao Dawei, Dong Yabo, Xiao Liang, Wang Juan, Min Chen, Li Fuyang, Jiang Weizhong, Lu Dongming, Nie Yiming2026-03-10💻 cs

Traffic-MLLM: Curiosity-Regularized Supervised Learning for Traffic Scenario Case-Based Reasoning

O artigo apresenta o Traffic-MLLM, um framework de raciocínio multimodal para cenários de trânsito que substitui a recuperação explícita de casos por uma modelagem neural estruturada e regularizada por curiosidade, demonstrando superioridade em benchmarks como SUTD-TrafficQA e DriveQA ao aprender um espaço de casos generalizável diretamente durante o treinamento.

Waikit Xiu, Qiang Lu, Bingchen Liu, Chen Sun, Xiying Li2026-03-10💻 cs

Cumulative Consensus Score: Label-Free and Model-Agnostic Evaluation of Object Detectors in Deployment

Este artigo apresenta a Cumulative Consensus Score (CCS), uma métrica de avaliação sem rótulos e agnóstica a modelos que utiliza consistência espacial em dados aumentados para monitorar a confiabilidade de detectores de objetos em cenários de implantação real, demonstrando alta concordância com métricas tradicionais baseadas em ground-truth.

Avinaash Manoharan, Xiangyu Yin, Domenik Helm, Chih-Hong Cheng2026-03-10💻 cs

WHU-STree: A Multi-modal Benchmark Dataset for Street Tree Inventory

Este artigo apresenta o WHU-STree, um novo conjunto de dados de referência multimodal e rico em anotações, coletado em duas cidades distintas com nuvens de pontos e imagens de alta resolução, projetado para superar as limitações dos métodos tradicionais e facilitar a automatização de inventários urbanos de árvores através da fusão de dados e aprendizado de modelos para diversas tarefas de gestão de ativos.

Ruifei Ding, Zhe Chen, Wen Fan + 5 more2026-03-10💻 cs

MICA: Multi-Agent Industrial Coordination Assistant

Este artigo apresenta o MICA, um assistente de coordenação multiagente baseado em percepção e interação por voz, projetado para oferecer suporte confiável e adaptável a fluxos de trabalho industriais em hardware offline com restrições de privacidade, utilizando uma arquitetura de cinco agentes especializados supervisionados por um verificador de segurança e uma nova técnica de fusão adaptativa de etapas.

Di Wen, Kunyu Peng, Junwei Zheng, Yufan Chen, Yitian Shi, Jiale Wei, Ruiping Liu, Kailun Yang, Rainer Stiefelhagen2026-03-10🤖 cs.LG

ORIC: Benchmarking Object Recognition under Contextual Incongruity in Large Vision-Language Models

O artigo apresenta o framework ORIC e o benchmark ORIC-Bench para avaliar e mitigar as falhas de reconhecimento de objetos em Modelos Visuais-Linguísticos de Grande Escala (LVLMs) causadas por incongruências contextuais, demonstrando que o ajuste fino com reforço visual em dados incongruentes melhora significativamente a robustez e reduz alucinações nesses modelos.

Zhaoyang Li, Zhan Ling, Yuchen Zhou, Litian Gong, Erdem Bıyık, Hao Su2026-03-10🤖 cs.LG

Do Modern Video-LLMs Need to Listen? A Benchmark Audit and Scalable Remedy

Este trabalho demonstra que os benchmarks atuais de compreensão de vídeo negligenciam a importância da audição ao serem resolvidos majoritariamente por pistas visuais, mas confirma que a integração de codificadores de fala em modelos de linguagem multimodais traz ganhos significativos em tarefas que exigem compreensão de áudio e alinhamento cruzado, propondo uma arquitetura escalável e de código aberto para remediar essa lacuna.

Geewook Kim, Minjoon Seo2026-03-10💻 cs

Quantized Visual Geometry Grounded Transformer

O artigo apresenta o QuantVGGT, um framework pioneiro de pós-treinamento para quantização de Transformers de Geometria Visual (VGGTs) que, através de uma quantização de precisão dupla suavizada e de uma amostragem diversificada filtrada por ruído, supera os desafios de distribuição de ativações e instabilidade de calibração, permitindo uma redução de memória de 3,7 vezes e aceleração de 2,5 vezes em hardware real com precisão de reconstrução superior a 98%.

Weilun Feng, Haotong Qin, Mingqiang Wu, Chuanguang Yang, Yuqi Li, Xiangqi Li, Zhulin An, Libo Huang, Yulun Zhang, Michele Magno, Yongjun Xu2026-03-10💻 cs