Paper Title: LoV3D: Grounding Cognitive Prognosis Reasoning in Longitudinal 3D Brain MRI via Regional Volume Assessments

O artigo apresenta o LoV3D, um pipeline de modelos de linguagem e visão 3D que analisa ressonâncias magnéticas cerebrais longitudinais para fornecer diagnósticos de doenças neurodegenerativas com justificativas anatômicas regionais, alcançando alta precisão e generalização ao reduzir alucinações por meio de uma verificação clínica automatizada.

Zhaoyang Jiang, Zhizhong Fu, David McAllister, Yunsoo Kim, Honghan Wu2026-03-13🤖 cs.AI

A Multi-Label Temporal Convolutional Framework for Transcription Factor Binding Characterization

Este artigo propõe um framework de redes neurais convolucionais temporais (TCNs) para a caracterização de ligação de fatores de transcrição como um problema de classificação multirrotulada, demonstrando que essa abordagem captura eficazmente as interações cooperativas entre múltiplos fatores e revela padrões biológicos significativos.

Pietro Demurtas, Ferdinando Zanchetta, Giovanni Perini, Rita Fioresi2026-03-13🧬 q-bio

Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

Este artigo propõe um pipeline de busca de arquitetura neural (NAS) eficiente em recursos que utiliza modelos de linguagem grandes (LLMs) em um ciclo fechado com memória de feedback histórica para iterativamente gerar e refinar arquiteturas de redes neurais convolucionais para classificação de imagens em uma única GPU de consumo, alcançando melhorias significativas de precisão sem necessidade de fine-tuning ou infraestrutura em nuvem.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte2026-03-13🤖 cs.LG

A Robust and Efficient Multi-Agent Reinforcement Learning Framework for Traffic Signal Control

Este artigo propõe um framework robusto e eficiente de Aprendizado por Reforço Multiagente para controle de sinais de trânsito, que combina randomização de proporções de conversão, um espaço de ação de ajuste exponencial de duração de fases e observações baseadas em vizinhança via MAPPO, resultando em uma redução superior a 10% no tempo médio de espera e em uma generalização aprimorada para cenários de tráfego dinâmicos.

Sheng-You Huang, Hsiao-Chuan Chang, Yen-Chi Chen, Ting-Han Wei, I-Hau Yeh, Sheng-Yao Kuan, Chien-Yao Wang, Hsuan-Han Lee, I-Chen Wu2026-03-13🤖 cs.AI

On Information Self-Locking in Reinforcement Learning for Active Reasoning of LLM agents

O artigo identifica o fenômeno de "auto-bloqueio de informação" em agentes de LLM treinados com aprendizado por reforço para raciocínio ativo, onde a deficiência na seleção de ações e no rastreamento de crenças cria um ciclo vicioso de baixa exploração, e propõe uma solução eficaz que realoca o sinal de aprendizado através de críticas direcionais para mitigar esse problema e melhorar o desempenho em até 60%.

Deyu Zou, Yongqiang Chen, Fan Feng, Mufei Li, Pan Li, Yu Gong, James Cheng2026-03-13🤖 cs.AI

SommBench: Assessing Sommelier Expertise of Language Models

O artigo apresenta o SommBench, um novo benchmark multilíngue desenvolvido em colaboração com sommeliers profissionais para avaliar a expertise de modelos de linguagem em domínios sensoriais como a teoria do vinho, a descrição de características e o harmonização com alimentos, revelando que, embora os modelos mais avançados dominem a teoria, ainda enfrentam desafios significativos em tarefas que exigem julgamento sensorial complexo.

William Brach, Tomas Bedej, Jacob Nielsen, Jacob Pichna, Juraj Bedej, Eemeli Saarensilta, Julie Dupouy, Gianluca Barmina, Andrea Blasi Núñez, Peter Schneider-Kamp, Kristian Koštál, Michal Ries, Lukas Galke Poech2026-03-13💬 cs.CL

TopoBench: Benchmarking LLMs on Hard Topological Reasoning

O artigo apresenta o TopoBench, um benchmark para avaliar a capacidade de raciocínio topológico de modelos de linguagem, revelando que o principal gargalo para a resolução de quebra-cabeças complexos não é a lógica em si, mas a extração e manutenção de restrições espaciais a partir de representações visuais.

Mayug Maniparambil, Nils Hoehing, Janak Kapuriya, Arjun Karuvally, Ellen Rushe, Anthony Ventresque, Noel O'Connor, Fergal Reid2026-03-13🤖 cs.AI

Automatic Generation of High-Performance RL Environments

Este artigo apresenta um método reutilizável de baixo custo que utiliza prompts genéricos, verificação hierárquica e reparo iterativo assistido por agentes para traduzir automaticamente ambientes complexos de Aprendizado por Reforço em implementações de alto desempenho semanticamente equivalentes, alcançando ganhos de velocidade de até 22.320 vezes em relação a referências existentes.

Seth Karten, Rahul Dev Appapogu, Chi Jin2026-03-13🤖 cs.LG

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Este artigo estabelece regras prescritivas para a alocação ótima de recursos computacionais no pós-treinamento por reforço de LLMs, demonstrando que o número ideal de rolagens paralelas por problema aumenta e depois satura conforme o orçamento de computação, com mecanismos distintos para problemas fáceis e difíceis, enquanto o tamanho do lote de problemas pode ser ajustado em uma ampla faixa sem comprometer a estabilidade.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG

GlyphBanana: Advancing Precise Text Rendering Through Agentic Workflows

O artigo apresenta o GlyphBanana, uma abordagem sem treinamento que utiliza um fluxo de trabalho agêntico com ferramentas auxiliares para injetar modelos de glifos no espaço latente e nos mapas de atenção, permitindo que modelos de texto-para-imagem gerem com alta precisão caracteres complexos e fórmulas matemáticas.

Zexuan Yan, Jiarui Jin, Yue Ma, Shijian Wang, Jiahui Hu, Wenxiang Jiao, Yuan Lu, Linfeng Zhang2026-03-13🤖 cs.AI

A Quantitative Characterization of Forgetting in Post-Training

Este artigo estabelece uma caracterização quantitativa do esquecimento no pós-treinamento contínuo de modelos generativos, demonstrando teoricamente como a direção da divergência de KL (forward vs. reverse), a sobreposição geométrica das distribuições e o uso de replay determinam se ocorre colapso de massa ou deriva de componentes, fornecendo condições explícitas para mitigar esses efeitos em métodos recentes.

Krishnakumar Balasubramanian, Shiva Prasad Kasiviswanathan2026-03-13📊 stat

BehaviorVLM: Unified Finetuning-Free Behavioral Understanding with Vision-Language Reasoning

O BehaviorVLM é um quadro unificado baseado em modelos de visão e linguagem que permite a estimativa de pose e a compreensão comportamental de animais em movimento livre sem necessidade de ajuste fino específico, utilizando raciocínio explícito e verificável para minimizar o esforço de anotação humana e garantir escalabilidade e interpretabilidade.

Jingyang Ke, Weihan Li, Amartya Pradhan, Jeffrey Markowitz, Anqi Wu2026-03-13🤖 cs.AI