Slow-Fast Inference: Training-Free Inference Acceleration via Within-Sentence Support Stability

O artigo apresenta a "Slow-Fast Inference" (SFI), uma metodologia de aceleração de inferência sem necessidade de treinamento que reduz custos computacionais em contextos longos ao alternar entre passos rápidos que reutilizam uma memória esparsa estável e passos lentos que atualizam essa memória em fronteiras semânticas, mantendo a qualidade do modelo.

Xingyu Xie, Zhaochen Yu, Yue Liao, Tao Wang, Kim-Chuan Toh, Shuicheng Yan2026-03-13🤖 cs.LG

XSkill: Continual Learning from Experience and Skills in Multimodal Agents

O artigo apresenta o XSkill, um framework de aprendizado contínuo para agentes multimodais que melhora o raciocínio e a orquestração de ferramentas em cenários abertos ao extrair e recuperar, sem atualizar parâmetros, conhecimento reutilizável em duas formas complementares — experiências e habilidades — fundamentadas em observações visuais.

Guanyu Jiang (May), Zhaochen Su (May), Xiaoye Qu (May), Yi R. (May), Fung2026-03-13🤖 cs.AI

Paper Title: LoV3D: Grounding Cognitive Prognosis Reasoning in Longitudinal 3D Brain MRI via Regional Volume Assessments

O artigo apresenta o LoV3D, um pipeline de modelos de linguagem e visão 3D que analisa ressonâncias magnéticas cerebrais longitudinais para fornecer diagnósticos de doenças neurodegenerativas com justificativas anatômicas regionais, alcançando alta precisão e generalização ao reduzir alucinações por meio de uma verificação clínica automatizada.

Zhaoyang Jiang, Zhizhong Fu, David McAllister, Yunsoo Kim, Honghan Wu2026-03-13🤖 cs.AI

A Multi-Label Temporal Convolutional Framework for Transcription Factor Binding Characterization

Este artigo propõe um framework de redes neurais convolucionais temporais (TCNs) para a caracterização de ligação de fatores de transcrição como um problema de classificação multirrotulada, demonstrando que essa abordagem captura eficazmente as interações cooperativas entre múltiplos fatores e revela padrões biológicos significativos.

Pietro Demurtas, Ferdinando Zanchetta, Giovanni Perini, Rita Fioresi2026-03-13🧬 q-bio

Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

Este artigo propõe um pipeline de busca de arquitetura neural (NAS) eficiente em recursos que utiliza modelos de linguagem grandes (LLMs) em um ciclo fechado com memória de feedback histórica para iterativamente gerar e refinar arquiteturas de redes neurais convolucionais para classificação de imagens em uma única GPU de consumo, alcançando melhorias significativas de precisão sem necessidade de fine-tuning ou infraestrutura em nuvem.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte2026-03-13🤖 cs.LG

A Robust and Efficient Multi-Agent Reinforcement Learning Framework for Traffic Signal Control

Este artigo propõe um framework robusto e eficiente de Aprendizado por Reforço Multiagente para controle de sinais de trânsito, que combina randomização de proporções de conversão, um espaço de ação de ajuste exponencial de duração de fases e observações baseadas em vizinhança via MAPPO, resultando em uma redução superior a 10% no tempo médio de espera e em uma generalização aprimorada para cenários de tráfego dinâmicos.

Sheng-You Huang, Hsiao-Chuan Chang, Yen-Chi Chen, Ting-Han Wei, I-Hau Yeh, Sheng-Yao Kuan, Chien-Yao Wang, Hsuan-Han Lee, I-Chen Wu2026-03-13🤖 cs.AI

On Information Self-Locking in Reinforcement Learning for Active Reasoning of LLM agents

O artigo identifica o fenômeno de "auto-bloqueio de informação" em agentes de LLM treinados com aprendizado por reforço para raciocínio ativo, onde a deficiência na seleção de ações e no rastreamento de crenças cria um ciclo vicioso de baixa exploração, e propõe uma solução eficaz que realoca o sinal de aprendizado através de críticas direcionais para mitigar esse problema e melhorar o desempenho em até 60%.

Deyu Zou, Yongqiang Chen, Fan Feng, Mufei Li, Pan Li, Yu Gong, James Cheng2026-03-13🤖 cs.AI

SommBench: Assessing Sommelier Expertise of Language Models

O artigo apresenta o SommBench, um novo benchmark multilíngue desenvolvido em colaboração com sommeliers profissionais para avaliar a expertise de modelos de linguagem em domínios sensoriais como a teoria do vinho, a descrição de características e o harmonização com alimentos, revelando que, embora os modelos mais avançados dominem a teoria, ainda enfrentam desafios significativos em tarefas que exigem julgamento sensorial complexo.

William Brach, Tomas Bedej, Jacob Nielsen, Jacob Pichna, Juraj Bedej, Eemeli Saarensilta, Julie Dupouy, Gianluca Barmina, Andrea Blasi Núñez, Peter Schneider-Kamp, Kristian Koštál, Michal Ries, Lukas Galke Poech2026-03-13💬 cs.CL

TopoBench: Benchmarking LLMs on Hard Topological Reasoning

O artigo apresenta o TopoBench, um benchmark para avaliar a capacidade de raciocínio topológico de modelos de linguagem, revelando que o principal gargalo para a resolução de quebra-cabeças complexos não é a lógica em si, mas a extração e manutenção de restrições espaciais a partir de representações visuais.

Mayug Maniparambil, Nils Hoehing, Janak Kapuriya, Arjun Karuvally, Ellen Rushe, Anthony Ventresque, Noel O'Connor, Fergal Reid2026-03-13🤖 cs.AI

Automatic Generation of High-Performance RL Environments

Este artigo apresenta um método reutilizável de baixo custo que utiliza prompts genéricos, verificação hierárquica e reparo iterativo assistido por agentes para traduzir automaticamente ambientes complexos de Aprendizado por Reforço em implementações de alto desempenho semanticamente equivalentes, alcançando ganhos de velocidade de até 22.320 vezes em relação a referências existentes.

Seth Karten, Rahul Dev Appapogu, Chi Jin2026-03-13🤖 cs.LG

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Este artigo estabelece regras prescritivas para a alocação ótima de recursos computacionais no pós-treinamento por reforço de LLMs, demonstrando que o número ideal de rolagens paralelas por problema aumenta e depois satura conforme o orçamento de computação, com mecanismos distintos para problemas fáceis e difíceis, enquanto o tamanho do lote de problemas pode ser ajustado em uma ampla faixa sem comprometer a estabilidade.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG

GlyphBanana: Advancing Precise Text Rendering Through Agentic Workflows

O artigo apresenta o GlyphBanana, uma abordagem sem treinamento que utiliza um fluxo de trabalho agêntico com ferramentas auxiliares para injetar modelos de glifos no espaço latente e nos mapas de atenção, permitindo que modelos de texto-para-imagem gerem com alta precisão caracteres complexos e fórmulas matemáticas.

Zexuan Yan, Jiarui Jin, Yue Ma, Shijian Wang, Jiahui Hu, Wenxiang Jiao, Yuan Lu, Linfeng Zhang2026-03-13🤖 cs.AI