Disentangling Reasoning in Large Audio-Language Models for Ambiguous Emotion Prediction

Este trabalho reformula o reconhecimento de emoções ambíguas como um problema de raciocínio distribucional em Modelos de Linguagem e Áudio Grandes (LALMs), introduzindo um framework com objetivos alinhados a distribuições perceptivas humanas e supervisão estruturada de cadeia de pensamento que demonstra melhorias consistentes em tarefas de previsão de emoções ambíguas.

Xiaofeng Yu, Jiaheng Dong, Jean Honorio, Abhirup Ghosh, Hong Jia, Ting Dang2026-03-10💻 cs

The Struggle Between Continuation and Refusal: A Mechanistic Analysis of the Continuation-Triggered Jailbreak in LLMs

Este artigo investiga o fenômeno de jailbreak acionado por continuação em modelos de linguagem grandes, revelando através de análise mecanicista que o sucesso desses ataques resulta de uma competição intrínseca entre o impulso do modelo para continuar o texto e suas defesas de segurança, além de identificar diferenças no comportamento das cabeças de atenção críticas para a segurança em diferentes arquiteturas.

Yonghong Deng, Zhen Yang, Ping Jian, Xinyue Zhang, Zhongbin Guo, Chengzhi Li2026-03-10🤖 cs.LG

Exploring Deep Learning and Ultra-Widefield Imaging for Diabetic Retinopathy and Macular Edema

Este estudo utiliza métodos de aprendizado profundo avançados e imagens ultra-widefield para avaliar a qualidade de imagem, detectar retinopatia diabética referível e edema macular diabético, demonstrando o alto desempenho de modelos como Vision Transformers e a eficácia da fusão de características e representações no domínio da frequência.

Pablo Jimenez-Lizcano, Sergio Romero-Tapiador, Ruben Tolosana, Aythami Morales, Guillermo González de Rivera, Ruben Vera-Rodriguez, Julian Fierrez2026-03-10💻 cs

FinToolBench: Evaluating LLM Agents for Real-World Financial Tool Use

O artigo apresenta o FinToolBench, o primeiro benchmark executável do mundo real projetado para avaliar agentes de IA no uso de ferramentas financeiras, oferecendo um ecossistema com 760 ferramentas executáveis e um novo framework de avaliação que prioriza a precisão, a conformidade regulatória e a estabilidade em cenários financeiros de alto risco.

Jiaxuan Lu, Kong Wang, Yemin Wang, Qingmei Tang, Hongwei Zeng, Xiang Chen, Jiahao Pi, Shujian Deng, Lingzhi Chen, Yi Fu, Kehua Yang, Xiao Sun2026-03-10💻 cs

SAIL: Test-Time Scaling for In-Context Imitation Learning with VLM

O artigo apresenta o SAIL, um quadro de aprendizado por imitação que utiliza busca em árvore Monte Carlo e modelos de linguagem visual para refinar iterativamente trajetórias de robôs durante o teste, demonstrando que aumentar a capacidade de computação no momento da execução melhora significativamente as taxas de sucesso em tarefas de manipulação complexas.

Makoto Sato, Yusuke Iwasawa, Yujin Tang, So Kuroki2026-03-10💻 cs

How Much Do LLMs Hallucinate in Document Q&A Scenarios? A 172-Billion-Token Study Across Temperatures, Context Lengths, and Hardware Platforms

Este estudo de 172 bilhões de tokens revela que, embora a seleção do modelo seja o fator mais crítico para a precisão, as alucinações em tarefas de Q&A com documentos aumentam drasticamente com o tamanho do contexto (ultrapassando 10% em 200K tokens), enquanto configurações de temperatura mais altas podem reduzir a perda de coerência sem comprometer significativamente a precisão, e os resultados permanecem consistentes independentemente da plataforma de hardware.

JV Roig2026-03-10💬 cs.CL

AdaCultureSafe: Adaptive Cultural Safety Grounded by Cultural Knowledge in Large Language Models

O artigo propõe o framework AdaCultureSafe, que integra conhecimento cultural e segurança em Grandes Modelos de Linguagem (LLMs) através de um novo conjunto de dados verificado manualmente, revelando a ausência de correlação entre segurança e proficiência cultural nos modelos atuais e apresentando um método baseado em conhecimento para aprimorar a segurança cultural.

Hankun Kang, Di Lin, Zhirong Liao, Pengfei Bai, Xinyi Zeng, Jiawei Jiang, Yuanyuan Zhu, Tieyun Qian2026-03-10💬 cs.CL

Evaluating LLM-Based Grant Proposal Review via Structured Perturbations

Este artigo avalia a capacidade de modelos de linguagem (LLMs) de revisar propostas de financiamento do EPSRC através de perturbações estruturadas, descobrindo que a abordagem de análise seção por seção supera outras arquiteturas, embora os sistemas atuais ainda apresentem variabilidade significativa e priorizem a verificação de conformidade em detrimento de uma avaliação holística.

William Thorne, Joseph James, Yang Wang, Chenghua Lin, Diana Maynard2026-03-10💬 cs.CL

A Blockchain-based Traceability System for AI-Driven Engine Blade Inspection

Este artigo apresenta o BladeChain, um sistema baseado em blockchain que garante a rastreabilidade imutável e auditável das inspeções de pás de motores de aeronaves, integrando agendamento automatizado, proveniência de modelos de IA e registros criptográficos em uma rede de múltiplas partes interessadas para eliminar falhas manuais e prevenir adulterações.

Mahmoud Hafez, Eman Ouda, Mohammed A. Mohammed Eltoum, Khaled Salah, Yusra Abdulrahman2026-03-10💻 cs

Minor First, Major Last: A Depth-Induced Implicit Bias of Sharpness-Aware Minimization

Este artigo demonstra que, ao contrário do Gradiente Descendente, o Sharpness-Aware Minimization (SAM) em redes lineares profundas exibe um viés implícito dependente da profundidade e da inicialização, podendo convergir para soluções triviais ou apresentar uma dinâmica de "amplificação sequencial de características" que prioriza coordenadas menores antes das maiores, revelando limitações nas análises de viés baseadas apenas no limite temporal infinito.

Chaewon Moon, Dongkuk Si, Chulhee Yun2026-03-10🤖 cs.LG

Deconstructing Multimodal Mathematical Reasoning: Towards a Unified Perception-Alignment-Reasoning Paradigm

Este artigo propõe um paradigma unificado de percepção-alinhamento-raciocínio para o Raciocínio Matemático Multimodal, sistematizando as abordagens atuais através de quatro questões fundamentais e destacando os desafios e direções futuras para superar as limitações na interpretação de diagramas, alinhamento de símbolos e verificação de passos intermediários.

Tianyu Yang, Sihong Wu, Yilun Zhao, Zhenwen Liang, Lisen Dai, Chen Zhao, Minhao Cheng, Arman Cohan, Xiangliang Zhang2026-03-10💻 cs

Graph-Instructed Neural Networks for parametric problems with varying boundary conditions

Este trabalho propõe uma metodologia inovadora baseada em Redes Neurais Instruídas por Grafos (GINNs) para simular de forma eficiente e precisa fenômenos físicos governados por equações diferenciais parciais paramétricas com condições de contorno variáveis, superando as limitações das técnicas de ordem reduzida clássicas que exigem reformulação para cada configuração.

Francesco Della Santa, Sandra Pieraccini, Maria Strazzullo2026-03-10🤖 cs.LG

Human-AI Divergence in Ego-centric Action Recognition under Spatial and Spatiotemporal Manipulations

Este estudo compara o desempenho humano e de IA no reconhecimento de ações em primeira pessoa, revelando que humanos dependem de pistas espaciais críticas e esparsas para identificar ações, enquanto os modelos atuais degradam-se de forma mais gradual, baseando-se excessivamente em contextos e características de baixo nível, o que evidencia uma divergência fundamental na robustez e nos mecanismos de reconhecimento entre ambos.

Sadegh Rahmaniboldaji, Filip Rybansky, Quoc C. Vuong, Anya C. Hurlbert, Frank Guerin, Andrew Gilbert2026-03-10💻 cs

CORE-Acu: Structured Reasoning Traces and Knowledge Graph Safety Verification for Acupuncture Clinical Decision Support

O artigo apresenta o CORE-Acu, um framework neuro-simbólico para suporte à decisão clínica em acupuntura que integra rastreamento de raciocínio estruturado e verificação de segurança baseada em grafos de conhecimento para garantir interpretabilidade e eliminar violações de segurança.

Liuyi Xu, Yun Guo, Ming Chen, Zihan Dun, Yining Qian, An-Yang Lu, Shuang Li, Lijun Liu2026-03-10💻 cs