Deep FlexQP: Accelerated Nonlinear Programming via Deep Unfolding

O artigo apresenta o Deep FlexQP, um solver de programação quadrática convexa acelerado por aprendizado profundo e baseado em relaxação elástica 1\ell_1, que garante soluções ótimas viáveis ou minimiza violações de restrições de forma esparsa, resultando em um solver SQP mais rápido e robusto para problemas de otimização não linear e filtros de segurança preditiva.

Alex Oshin, Rahul Vodeb Ghosh, Augustinos D. Saravanos + 1 more2026-03-06🔢 math

Guided Flow Policy: Learning from High-Value Actions in Offline Reinforcement Learning

O artigo apresenta a Guided Flow Policy (GFP), um método de aprendizado por reforço offline que combina um policy de fluxo de múltiplos passos com um ator destilado para focar na clonagem de ações de alto valor, alcançando desempenho de última geração em diversos benchmarks ao superar as limitações da regularização comportamental tradicional.

Franki Nguimatsia Tiofack, Théotime Le Hellard, Fabian Schramm + 2 more2026-03-06💻 cs

ClinNoteAgents: An LLM Multi-Agent System for Predicting and Interpreting Heart Failure 30-Day Readmission from Clinical Notes

O artigo apresenta o ClinNoteAgents, um sistema multiagente baseado em LLM que transforma notas clínicas em texto livre em representações estruturadas e abstrações interpretáveis para prever com precisão as readmissões hospitalares em 30 dias de pacientes com insuficiência cardíaca, superando as limitações dos modelos tradicionais que dependem de campos estruturados e anotação manual.

Rongjia Zhou, Chengzhuo Li, Carl Yang + 1 more2026-03-06💻 cs

Achieving Olympia-Level Geometry Large Language Model Agent via Complexity Boosting Reinforcement Learning

O artigo apresenta o InternGeometry, um agente de modelo de linguagem baseado em Aprendizado por Reforço com Aumento de Complexidade (CBRL) e um mecanismo de memória dinâmica que, utilizando apenas 13 mil exemplos de treinamento, supera o desempenho de medalhistas de ouro no International Mathematical Olympiad em problemas de geometria ao propor construções auxiliares inovadoras e interagir iterativamente com um motor simbólico.

Haiteng Zhao, Junhao Shen, Yiming Zhang + 7 more2026-03-06💻 cs

HydroGEM: A Self Supervised Zero Shot Hybrid TCN Transformer Foundation Model for Continental Scale Streamflow Quality Control

O artigo apresenta o HydroGEM, um modelo fundacional híbrido de TCN e Transformer, treinado de forma auto-supervisionada em escala continental, que supera os métodos existentes na detecção e reconstrução de anomalias em dados de vazão de rios, demonstrando robustez e capacidade de generalização transnacional.

Ijaz Ul Haq, Byung Suk Lee, Julia N. Perdrial + 1 more2026-03-06💻 cs

Yukthi Opus: A Multi-Chain Hybrid Metaheuristic for Large-Scale NP-Hard Optimization

O artigo apresenta o Yukthi Opus, uma metaheurística híbrida multi-cadeia que integra MCMC, busca local gulosa e recozimento simulado para resolver problemas de otimização NP-difíceis sob restrições de orçamento de avaliação, demonstrando desempenho competitivo e robustez em benchmarks como Rastrigin, Rosenbrock e o Problema do Caixeiro Viajante.

SB Danush Vikraman, Hannah Abigail, Prasanna Kesavraj + 1 more2026-03-06💻 cs

When Do Tools and Planning Help Large Language Models Think? A Cost- and Latency-Aware Benchmark

Este estudo avalia o impacto do uso de ferramentas e planejamento em tempo de inferência em modelos de linguagem de grande escala, demonstrando que, embora essas abordagens possam melhorar significativamente a precisão em tarefas complexas de raciocínio baseadas em conhecimento, elas frequentemente resultam em aumentos drásticos de latência e custo sem benefícios consistentes em tarefas mais simples, destacando a necessidade de escolhas estratégicas e conscientes de custos entre o tamanho do modelo e a complexidade do agente.

Subha Ghoshal, Ali Al-Bustami2026-03-06💻 cs

Identifying Good and Bad Neurons for Task-Level Controllable LLMs

O artigo apresenta o NeuronLLM, um novo framework que identifica tanto neurônios facilitadores quanto inibidores em Grandes Modelos de Linguagem para tarefas específicas, utilizando aprendizado contrastivo e conjuntos de perguntas aumentados para superar as limitações dos métodos anteriores e oferecer uma compreensão mais holística da organização funcional desses modelos.

Wenjie Li, Guansong Pang, Hezhe Qiao + 2 more2026-03-06💻 cs