Personalized Feature Translation for Expression Recognition: An Efficient Source-Free Domain Adaptation Method

O artigo propõe o método SFDA-PFT, uma abordagem leve de adaptação de domínio sem fonte que utiliza tradução de características no espaço latente para personalizar modelos de reconhecimento de expressões faciais usando apenas dados de alvo neutros, superando as limitações de métodos existentes e evitando a geração instável de imagens.

Masoumeh Sharafi, Soufiane Belharbi, Muhammad Osama Zeeshan, Houssem Ben Salem, Ali Etemad, Alessandro Lameiras Koerich, Marco Pedersoli, Simon Bacon, Eric GrangerWed, 11 Ma🤖 cs.AI

EgoCross: Benchmarking Multimodal Large Language Models for Cross-Domain Egocentric Video Question Answering

O artigo apresenta o EgoCross, um novo benchmark abrangente para avaliar a generalização de modelos de linguagem multimodal em cenários de vídeo egocêntrico que transcendem atividades cotidianas, cobrindo domínios desafiadores como cirurgia, indústria, esportes extremos e perspectiva animal.

Yanjun Li, Yuqian Fu, Tianwen Qian, Qi'ao Xu, Silong Dai, Danda Pani Paudel, Luc Van Gool, Xiaoling WangWed, 11 Ma🤖 cs.AI

You Only Pose Once: A Minimalist's Detection Transformer for Monocular RGB Category-level 9D Multi-Object Pose Estimation

O artigo apresenta o YOPO, um método de detecção baseado em transformers que unifica a detecção 2D e a estimativa de pose 9D de objetos em nível de categoria a partir de imagens RGB monoculares em uma única etapa, alcançando desempenho superior ao estado da arte sem depender de dados adicionais como profundidade ou modelos CAD.

Hakjin Lee, Junghoon Seo, Jaehoon SimWed, 11 Ma💻 cs

CoRe-GS: Coarse-to-Refined Gaussian Splatting with Semantic Object Focus

O artigo apresenta o CoRe-GS, um framework de Gaussian Splatting que otimiza seletivamente apenas as regiões de interesse (POIs) em uma abordagem de "grossa para refinada", reduzindo drasticamente o tempo de treinamento e melhorando a qualidade da reconstrução para aplicações robóticas críticas, ao mesmo tempo que mitiga artefatos visuais sem necessidade de rasterização de máscaras.

Hannah Schieber, Dominik Frischmann, Victor Schaack, Simon Boche, Angela Schoellig, Stefan Leutenegger, Daniel RothWed, 11 Ma💻 cs

VocSegMRI: Multimodal Learning for Precise Vocal Tract Segmentation in Real-time MRI

O artigo apresenta o VocSegMRI, um framework de aprendizado multimodal que integra vídeo, áudio e sinais fonológicos para alcançar a segmentação de precisão das estruturas articulatórias em ressonância magnética em tempo real, superando os métodos existentes com uma pontuação Dice de 0,95.

Daiqi Liu, Tomás Arias-Vergara, Johannes Enk, Fangxu Xing, Maureen Stone, Jerry L. Prince, Jana Hutter, Andreas Maier, Jonghye Woo, Paula Andrea Pérez-ToroWed, 11 Ma💻 cs

Kuramoto Orientation Diffusion Models

Este artigo propõe um modelo generativo baseado em pontuação que utiliza dinâmicas estocásticas de Kuramoto em domínios periódicos para capturar padrões direcionais coerentes em imagens ricas em orientação, como impressões digitais e texturas, superando as limitações dos métodos de difusão euclidiana isotrópica ao modelar a sincronização e dessincronização de fases.

Yue Song, T. Anderson Keller, Sevan Brodjian, Takeru Miyato, Yisong Yue, Pietro Perona, Max WellingWed, 11 Ma🤖 cs.LG

Automated Coral Spawn Monitoring for Reef Restoration: The Coral Spawn and Larvae Imaging Camera System (CSLICS)

Este artigo apresenta o Sistema de Câmera de Imagem de Desova e Larvas de Coral (CSLICS), uma solução automatizada de baixo custo que utiliza visão computacional para contar desovas de coral com precisão, reduzindo drasticamente o trabalho manual e facilitando a restauração de recifes em grande escala.

Dorian Tsai, Christopher A. Brunner, Riki Lamont, F. Mikaela Nordborg, Andrea Severati, Java Terry, Karen Jackel, Matthew Dunbabin, Tobias Fischer, Scarlett RaineWed, 11 Ma💻 cs

v-HUB: A Benchmark for Video Humor Understanding from Vision and Sound

O artigo apresenta o v-HUB, um novo benchmark para compreensão de humor em vídeos que utiliza vídeos não verbais e anotações ricas para avaliar modelos de linguagem multimodal, demonstrando que a integração de pistas auditivas melhora significativamente a capacidade desses modelos de entender o humor.

Zhengpeng Shi, Yanpeng Zhao, Jianqun Zhou, Yuxuan Wang, Qinrong Cui, Wei Bi, Songchun Zhu, Bo Zhao, Zilong ZhengWed, 11 Ma🤖 cs.AI

Mapping Historic Urban Footprints in France: Balancing Quality, Scalability and AI Techniques

Este estudo apresenta um pipeline de aprendizado profundo escalável baseado em uma abordagem U-Net de dupla passagem para extrair o primeiro conjunto de dados nacional de pegada urbana da França (1925-1950) a partir de mapas históricos Scan Histo, superando desafios de ruído e complexidade estilística para alcançar uma precisão global de 73% e liberar os dados e códigos resultantes para pesquisas futuras.

Walid Rabehi, Marion Le Texier, Rémi LemoyWed, 11 Ma💻 cs

Exploring Single Domain Generalization of LiDAR-based Semantic Segmentation under Imperfect Labels

Este artigo apresenta o DuNe, um novo framework de dupla visão que alcança o estado da arte na segmentação semântica de LiDAR com generalização de domínio sob rótulos ruidosos, superando as limitações dos métodos existentes ao lidar com a estrutura esparsa e irregular de nuvens de pontos.

Weitong Kong, Zichao Zeng, Di Wen, Jiale Wei, Kunyu Peng, June Moh Goo, Jan Boehm, Rainer StiefelhagenWed, 11 Ma🤖 cs.LG

Real-Time Neural Video Compression with Unified Intra and Inter Coding

Este artigo apresenta um novo framework de compressão de vídeo neural em tempo real que unifica codificação intra e inter em um único modelo adaptativo, superando as limitações de propagação de erro e gerência de novos conteúdos para alcançar uma redução média de 12,1% na taxa BD em comparação com o estado da arte DCVC-RT, mantendo simultaneamente desempenho de codificação e decodificação em tempo real.

Hui Xiang, Yifan Bian, Li Li, Jingran Wu, Xianguo Zhang, Dong LiuWed, 11 Ma💻 cs

From Spatial to Actions: Grounding Vision-Language-Action Model in Spatial Foundation Priors

O artigo apresenta o FALCON, um novo paradigma que integra priores espaciais 3D ricos em modelos de fundação diretamente no cabeçalho de ação de modelos Visão-Linguagem-Ação, permitindo raciocínio espacial robusto e desempenho de ponta em tarefas do mundo real sem comprometer o alinhamento linguístico ou exigir reestruturação arquitetural.

Zhengshen Zhang, Hao Li, Yalun Dai, Zhengbang Zhu, Lei Zhou, Chenchen Liu, Dong Wang, Francis E. H. Tay, Sijin Chen, Ziwei Liu, Yuxiao Liu, Xinghang Li, Pan ZhouWed, 11 Ma🤖 cs.AI

Proper Body Landmark Subset Enables More Accurate and 5X Faster Recognition of Isolated Signs in LIBRAS

Este artigo demonstra que a seleção de um subconjunto adequado de marcos corporais, combinada com técnicas de imputação por splines e o uso do MediaPipe, permite reconhecer sinais isolados da LIBRAS com precisão superior ou comparável aos métodos atuais, reduzindo o tempo de processamento em mais de 5 vezes.

Daniele L. V. dos Santos, Thiago B. Pereira, Carlos Eduardo G. R. Alves, Richard J. M. G. Tello, Francisco de A. Boldt, Thiago M. PaixãoWed, 11 Ma💻 cs

SynHLMA:Synthesizing Hand Language Manipulation for Articulated Object with Discrete Human Object Interaction Representation

O artigo apresenta o SynHLMA, um novo framework que gera sequências de manipulação de mãos para objetos articulados a partir de instruções em linguagem natural, utilizando uma representação discreta de interação mão-objeto e uma perda consciente das juntas para garantir a coerência dinâmica e funcionalidade em tarefas como geração, previsão e interpolação de gestos.

Wang zhi, Yuyan Liu, Liu Liu, Li Zhang, Ruixuan Lu, Dan GuoWed, 11 Ma🤖 cs.AI