Evo: Autoregressive-Diffusion Large Language Models with Evolving Balance

O artigo apresenta o Evo, um modelo de linguagem de grande escala inovador que unifica as abordagens autoregressiva e de difusão em um único fluxo latente evolutivo, permitindo um equilíbrio adaptativo entre planejamento e refinamento para alcançar resultados de ponta em diversas tarefas com eficiência de inferência.

Junde Wu, Minhao Hu, Jiayuan Zhu, Yuyuan Liu, Tianyi Zhang, Kang Li, Jingkun Chen, Jiazhen Pan, Min Xu, Yueming Jin2026-03-10🤖 cs.LG

Distilling and Adapting: A Topology-Aware Framework for Zero-Shot Interaction Prediction in Multiplex Biological Networks

Este artigo propõe um novo framework de aprendizado de representação consciente da topologia, que utiliza modelos fundamentais específicos de domínio, tokenização de grafos e aprendizado por contraste com distilação de conhecimento para superar as limitações atuais e realizar previsões de interação zero-shot em Redes Biológicas Multiplex.

Alana Deng, Sugitha Janarthanan, Yan Sun, Zihao Jing, Pingzhao Hu2026-03-10🤖 cs.LG

Not all tokens are needed(NAT): token efficient reinforcement learning

O artigo apresenta o NAT (Not All Tokens Are Needed), um framework de aprendizado por reforço que otimiza o custo computacional ao atualizar a política apenas com um subconjunto de tokens gerados via reponderamento de Horvitz-Thompson, mantendo o desempenho em raciocínio matemático enquanto reduz significativamente o uso de memória e tempo de treinamento.

Hejian Sang, Yuanda Xu, Zhengze Zhou, Ran He, Zhipeng Wang2026-03-10🤖 cs.LG

GraphSkill: Documentation-Guided Hierarchical Retrieval-Augmented Coding for Complex Graph Reasoning

O artigo apresenta o GraphSkill, um framework de codificação com recuperação aumentada hierárquica guiada por documentação e agente de autodepuração, que supera as limitações de métodos existentes ao explorar a estrutura hierárquica de documentos técnicos e corrigir erros lógicos, validado por meio de um novo dataset e experimentos que demonstram maior precisão e menor custo de inferência em raciocínio complexo sobre grafos.

Fali Wang, Chenglin Weng, Xianren Zhang, Siyuan Hong, Hui Liu, Suhang Wang2026-03-10🤖 cs.LG

Reward Under Attack: Analyzing the Robustness and Hackability of Process Reward Models

Este artigo demonstra que os Modelos de Recompensa de Processo (PRMs) atuais são sistematicamente exploráveis por adversários, revelando que eles funcionam mais como detectores de fluência do que como verificadores de raciocínio, e propõe um novo framework de diagnóstico e ferramentas para avaliar sua robustez antes da implantação.

Rishabh Tiwari, Aditya Tomar, Udbhav Bamba, Monishwaran Maheswaran, Heng Yang, Michael W. Mahoney, Kurt Keutzer, Amir Gholami2026-03-10🤖 cs.LG

T-REX: Transformer-Based Category Sequence Generation for Grocery Basket Recommendation

O artigo propõe o T-REX, uma arquitetura baseada em transformadores que gera recomendações de categorias personalizadas para o comércio eletrônico de supermercados, superando limitações de modelos anteriores ao combinar dependências de curto prazo, preferências de longo prazo e um esquema de mascaramento causal para prever com precisão os próximos itens em cestas de compras.

Soroush Mokhtari, Muhammad Tayyab Asif, Sergiy Zubatiy2026-03-10🤖 cs.LG

Leakage Safe Graph Features for Interpretable Fraud Detection in Temporal Transaction Networks

Este artigo apresenta um protocolo de extração de características de grafos causal e seguro contra vazamento de dados para detecção de fraudes em redes de transações temporais, demonstrando que, embora os atributos das transações sejam predominantes, os indicadores estruturais do grafo fornecem uma interpretabilidade valiosa e melhoram a análise de risco em pipelines de detecção de fraudes.

Hamideh Khaleghpour, Brett McKinney2026-03-10🤖 cs.LG

Graph Property Inference in Small Language Models: Effects of Representation and Inference Strategy

O estudo demonstra que a capacidade de modelos de linguagem pequenos inferirem propriedades de grafos depende criticamente da organização da representação dos dados e da estratégia de raciocínio, sendo que representações que preservam a estrutura de vizinhança e o raciocínio multi-ramo melhoram significativamente a estabilidade e a consistência das previsões.

Michal Podstawski2026-03-10🤖 cs.LG

SmartBench: Evaluating LLMs in Smart Homes with Anomalous Device States and Behavioral Contexts

O artigo apresenta o SmartBench, o primeiro conjunto de dados e benchmark projetado para avaliar a capacidade de modelos de linguagem grandes (LLMs) de detectar e responder a estados anômalos em ambientes domésticos inteligentes, revelando que os modelos atuais ainda possuem desempenho insuficiente para essa tarefa crítica.

Qingsong Zou, Zhi Yan, Zhiyao Xu, Kuofeng Gao, Jingyu Xiao, Yong Jiang2026-03-10🤖 cs.LG

HEARTS: Benchmarking LLM Reasoning on Health Time Series

O artigo apresenta o HEARTS, um benchmark unificado que avalia a capacidade de raciocínio hierárquico de modelos de linguagem grandes (LLMs) em séries temporais de saúde, revelando que eles ainda superam significativamente os modelos especializados e dependem excessivamente de heurísticas simples, indicando que o aumento de escala por si só é insuficiente para lidar com a complexidade temporal real.

Sirui Li, Shuhan Xiao, Mihir Joshi, Ahmed Metwally, Daniel McDuff, Wei Wang, Yuzhe Yang2026-03-10🤖 cs.LG

Roots Beneath the Cut: Uncovering the Risk of Concept Revival in Pruning-Based Unlearning for Diffusion Models

Este artigo revela que a técnica de "unlearning" baseada em poda em modelos de difusão é vulnerável a um ataque de revivescência de conceitos, onde a simples localização dos pesos removidos atua como um canal lateral que permite recuperar informações apagadas sem necessidade de dados ou retreinamento, exigindo assim o desenvolvimento de mecanismos de poda mais seguros que ocultem essas localizações.

Ci Zhang, Zhaojun Ding, Chence Yang, Jun Liu, Xiaoming Zhai, Shaoyi Huang, Beiwen Li, Xiaolong Ma, Jin Lu, Geng Yuan2026-03-10🤖 cs.LG

SR-TTT: Surprisal-Aware Residual Test-Time Training

O artigo apresenta o SR-TTT, uma abordagem que resolve as falhas de recuperação de modelos de linguagem com Treinamento em Tempo de Teste (TTT) ao integrar um mecanismo de memória residual esparsa e controlada por perda, que roteia dinamicamente apenas tokens altamente surpreendentes para um cache de atenção exata, preservando assim a eficiência de memória O(1) para o contexto geral enquanto garante a retenção precisa de informações críticas.

Swamynathan V P2026-03-10🤖 cs.LG

Quantum Deep Learning: A Comprehensive Review

Este artigo de revisão define o aprendizado profundo quântico (QDL), apresenta uma taxonomia de quatro paradigmas, analisa seus fundamentos teóricos e implementações experimentais em diversas plataformas de hardware, avalia criticamente as alegações de vantagem quântica e traça um roteiro para sua evolução rumo a implementações escaláveis e tolerantes a falhas.

Yanjun Ji, Zhao-Yun Chen, Marco Roth, David A. Kreplin, Christian Schiffer, Martin King, Oliver Anton, M. Sahnawaz Alam, Markus Krutzik, Dennis Willsch, Ludwig Mathey, Frank K. Wilhelm, Guo-Ping Guo2026-03-10⚛️ quant-ph