Revealing Behavioral Plasticity in Large Language Models: A Token-Conditional Perspective

Este trabalho revela a plasticidade comportamental inerente aos Grandes Modelos de Linguagem e propõe o ToCoRL, um quadro de aprendizado por reforço que internaliza essa adaptabilidade condicional a tokens, permitindo um controle preciso do comportamento do modelo sem degradação de capacidades.

Liyuan Mao, Le Yu, Jing Zhou, Chujie Zheng, Bowen Yu, Chang Gao, Shixuan Liu, An Yang, Weinan Zhang, JunYang Lin2026-03-10🤖 cs.LG

A prospective clinical feasibility study of a conversational diagnostic AI in an ambulatory primary care clinic

Este estudo prospectivo de viabilidade demonstrou que um sistema de IA conversacional baseado em LLM (AMIE) foi seguro, bem recebido por pacientes e clínicos, e produziu diagnósticos diferenciais e planos de manejo de qualidade comparável à dos médicos de atenção primária em um ambiente de urgência real, embora os médicos tenham superado a IA na praticidade e custo-efetividade dos planos de tratamento.

Peter Brodeur, Jacob M. Koshy, Anil Palepu, Khaled Saab, Ava Homiar, Roma Ruparel, Charles Wu, Ryutaro Tanno, Joseph Xu, Amy Wang, David Stutz, Hannah M. Ferrera, David Barrett, Lindsey Crowley, Jihyeon Lee, Spencer E. Rittner, Ellery Wulczyn, Selena K. Zhang, Elahe Vedadi, Christine G. Kohn, Kavita Kulkarni, Vinay Kadiyala, Sara Mahdavi, Wendy Du, Jessica Williams, David Feinbloom, Renee Wong, Tao Tu, Petar Sirkovic, Alessio Orlandi, Christopher Semturs, Yun Liu, Juraj Gottweis, Dale R. Webster, Joëlle Barral, Katherine Chou, Pushmeet Kohli, Avinatan Hassidim, Yossi Matias, James Manyika, Rob Fields, Jonathan X. Li, Marc L. Cohen, Vivek Natarajan, Mike Schaekermann, Alan Karthikesalingam, Adam Rodman2026-03-10🤖 cs.LG

LycheeCluster: Efficient Long-Context Inference with Structure-Aware Chunking and Hierarchical KV Indexing

O LycheeCluster é um método inovador para gerenciamento eficiente de cache KV em modelos de linguagem grandes que, ao utilizar fragmentação consciente de limites e indexação hierárquica recursiva, reduz a complexidade de recuperação de linear para logarítmica, alcançando até 3,6 vezes mais velocidade de inferência com degradação mínima de desempenho.

Dongfang Li, Zixuan Liu, Gang Lin, Baotian Hu, Min Zhang2026-03-10🤖 cs.LG

The Boiling Frog Threshold: Criticality and Blindness in World Model-Based Anomaly Detection Under Gradual Drift

Este artigo demonstra que a detecção de desvios graduais em agentes de RL baseados em modelos de mundo ocorre apenas acima de um limiar crítico universal (ε\varepsilon^*), cuja posição é determinada pela interação entre a sensibilidade do detector, a estrutura do ruído e a dinâmica do ambiente, revelando que certos tipos de desvio (como os sinusoidais) são intrinsecamente indetectáveis e que ambientes frágeis podem colapsar antes que qualquer monitoramento seja acionado.

Zhe Hong2026-03-10🤖 cs.LG

Adaptive Entropy-Driven Sensor Selection in a Camera-LiDAR Particle Filter for Single-Vessel Tracking

Este artigo apresenta um rastreador de partículas com fusão de sensores heterogêneos (câmera e LiDAR) que utiliza uma política adaptativa baseada em ganho de informação para selecionar dinamicamente o sensor mais informativo, demonstrando em um teste real no Chipre que essa abordagem oferece um equilíbrio superior entre precisão e continuidade na vigilância marítima em comparação com o uso isolado de sensores ou a fusão contínua de todos os dados.

Andrei Starodubov, Yaqub Aris Prabowo, Andreas Hadjipieris, Ioannis Kyriakides, Roberto Galeazzi2026-03-10🤖 cs.LG

Reasoning as Compression: Unifying Budget Forcing via the Conditional Information Bottleneck

Este artigo propõe o "Conditional Information Bottleneck" (CIB) como um novo quadro teórico para unificar o "Budget Forcing" em modelos de linguagem, tratando o raciocínio como um problema de compressão que preserva apenas as informações essenciais para a resposta, permitindo assim reduzir custos de inferência sem sacrificar a precisão lógica.

Fabio Valerio Massoli, Andrey Kuzmin, Arash Behboodi2026-03-10🤖 cs.LG

MUSA-PINN: Multi-scale Weak-form Physics-Informed Neural Networks for Fluid Flow in Complex Geometries

O artigo apresenta o MUSA-PINN, uma rede neural física-informada de múltiplas escalas baseada em formulação fraca que supera as limitações de convergência em geometrias complexas, como superfícies mínimas triplamente periódicas, ao reformular as restrições de PDE como leis de conservação integrais em volumes de controle hierárquicos, resultando em erros significativamente menores e melhor conservação de massa.

Weizheng Zhang, Xunjie Xie, Hao Pan, Xiaowei Duan, Bingteng Sun, Qiang Du, Lin lu2026-03-10🤖 cs.LG

Integrating Lagrangian Neural Networks into the Dyna Framework for Reinforcement Learning

Este artigo propõe a integração de Redes Neurais Lagrangianas (LNNs) no framework Dyna para Aprendizado por Reforço baseado em Modelo, demonstrando que o uso de otimizadores baseados em estimativa de estado acelera a convergência e melhora a precisão das previsões de dinâmica ao impor leis físicas subjacentes.

Shreya Das, Kundan Kumar, Muhammad Iqbal, Outi Savolainen, Dominik Baumann, Laura Ruotsalainen, Simo Särkkä2026-03-10🤖 cs.LG

NN-OpInf: an operator inference approach using structure-preserving composable neural networks

O artigo apresenta o NN-OpInf, uma estrutura de inferência de operadores não intrusiva e que preserva a estrutura, baseada em redes neurais compostas, que supera os métodos polinomiais tradicionais na modelagem de sistemas dinâmicos com não linearidades complexas, oferecendo maior precisão e estabilidade, embora com custos computacionais de treinamento mais elevados.

Eric Parish, Anthony Gruber, Patrick Blonigan, Irina Tezaur2026-03-10🤖 cs.LG