BioAgent Bench: An AI Agent Evaluation Suite for Bioinformatics

Este artigo apresenta o BioAgent Bench, uma suite de avaliação e conjunto de dados que mede o desempenho e a robustez de agentes de IA em tarefas de bioinformática, revelando que, embora modelos de ponta consigam executar pipelines complexos, eles falham sob perturbações controladas e que modelos de pesos abertos são preferíveis em cenários que exigem privacidade de dados.

Dionizije Fa, Marko Čuljak, Bruno Pandža, Mateo Čupic2026-03-10💻 cs

Real-Time Aligned Reward Model beyond Semantics

Este trabalho apresenta o R2M, um novo framework leve de RLHF que supera as limitações da otimização excessiva de recompensas ao alinhar o modelo de recompensa com as mudanças de distribuição da política em tempo real, utilizando estados ocultos da política em vez de depender apenas de informações semânticas superficiais.

Zixuan Huang, Xin Xia, Yuxi Ren, Jianbin Zheng, Xuefeng Xiao, Hongyan Xie, Li Huaqiu, Songshi Liang, Zhongxiang Dai, Fuzhen Zhuang, Jianxin Li, Yikun Ban, Deqing Wang2026-03-10💻 cs

Bitcoin Price Prediction using Machine Learning and Combinatorial Fusion Analysis

Este artigo propõe a aplicação da Análise de Fusão Combinatória (CFA) para prever o preço do Bitcoin, demonstrando que a combinação de diversos modelos de aprendizado de máquina por meio de funções de características de pontuação e classificação supera significativamente os modelos individuais e outros métodos existentes, alcançando um erro médio percentual (MAPE) de 0,19%.

Yuanhong Wu, Wei Ye, Jingyan Xu, D. Frank Hsu2026-03-10🤖 cs.LG

Impact of LLMs news Sentiment Analysis on Stock Price Movement Prediction

Este estudo avalia o impacto da análise de sentimentos de notícias baseada em LLMs (DeBERTa, RoBERTa e FinBERT) na previsão de movimentos de preços de ações, demonstrando que o DeBERTa individualmente atinge 75% de precisão, um ensemble dos três modelos chega a 80% e que as características de sentimento oferecem benefícios modestos a diversos modelos de previsão.

Walid Siala (SnT, University of Luxembourg, Luxembourg), Ahmed Khanfir (RIADI, ENSI, University of Manouba, Tunisia, SnT, University of Luxembourg, Luxembourg), Mike Papadakis (SnT, University of Luxembourg, Luxembourg)2026-03-10💻 cs

Do Schwartz Higher-Order Values Help Sentence-Level Human Value Detection? A Study of Hierarchical Gating and Calibration

Este estudo demonstra que, para a detecção de valores humanos em nível de frase, a estrutura de valores de ordem superior de Schwartz funciona melhor como um viés indutivo do que como uma regra de roteamento rígida, sendo que os ganhos mais significativos de desempenho provêm de técnicas de calibração e ensembles em vez de arquiteturas hierárquicas complexas.

Víctor Yeste, Paolo Rosso2026-03-10🤖 cs.LG

Thickening-to-Thinning: Reward Shaping via Human-Inspired Learning Dynamics for LLM Reasoning

O artigo apresenta o T2T (Thickening-to-Thinning), um novo framework de recompensa dinâmica inspirado no aprendizado humano que alterna entre incentivar trajetórias mais longas para explorar soluções em tentativas erradas e penalizar o comprimento após o acerto para eliminar redundâncias, resultando em desempenho superior de raciocínio em modelos de linguagem em benchmarks matemáticos.

Wenze Lin, Zhen Yang, Xitai Jiang, Pony Ma, Gao Huang2026-03-10🤖 cs.LG

Extracting Recurring Vulnerabilities from Black-Box LLM-Generated Software

Este artigo apresenta o FSTab, uma abordagem de ataque em caixa preta que identifica e avalia a persistência de vulnerabilidades recorrentes em softwares gerados por LLMs, demonstrando que modelos de ponta como GPT-5.2 e Claude-4.5 Opus reproduzem falhas previsíveis com alta taxa de sucesso mesmo em domínios não vistos durante o treinamento.

Tomer Kordonsky, Maayan Yamin, Noam Benzimra, Amit LeVi, Avi Mendelson2026-03-10💻 cs

Semantic Search over 9 Million Mathematical Theorems

Este trabalho apresenta e avalia um sistema de busca semântica em escala para 9,2 milhões de teoremas matemáticos extraídos de fontes como o arXiv, demonstrando que a recuperação específica de teoremas, e não apenas de artigos inteiros, é viável e eficaz ao utilizar descrições em linguagem natural e modelos de linguagem avançados.

Luke Alexander, Eric Leonen, Sophie Szeto, Artemii Remizov, Ignacio Tejeda, Jarod Alper, Giovanni Inchiostro, Vasily Ilin2026-03-10🔢 math

Conditional Diffusion Guidance under Hard Constraint: A Stochastic Analysis Approach

Este artigo propõe um novo quadro de orientação para difusão condicional sob restrições rígidas, fundamentado na transformada h de Doob e em identidades de martingale, que permite estimar correções de deriva sem modificar a rede de pontuação pré-treinada e oferece garantias teóricas não assintóticas para a satisfação de eventos com probabilidade unitária.

Zhengyi Guo, Wenpin Tang, Renyuan Xu2026-03-10💻 cs

Diffusion-Guided Pretraining for Brain Graph Foundation Models

Este artigo propõe um novo quadro unificado de pré-treinamento baseado em difusão para modelos fundamentais de grafos cerebrais, que supera as limitações dos métodos existentes ao utilizar a difusão para orientar estratégias de mascaramento e reconstrução que preservam padrões de conectividade semanticamente significativos e capturam informações estruturais globais, resultando em representações mais robustas validadas em grandes conjuntos de dados de neuroimagem.

Xinxu Wei, Rong Zhou, Lifang He, Yu Zhang2026-03-10🤖 cs.LG

Listen to the Layers: Mitigating Hallucinations with Inter-Layer Disagreement

O artigo apresenta o CoCoA, um algoritmo de decodificação sem treinamento que mitiga alucinações em Grandes Modelos de Linguagem ao penalizar gerações instáveis detectadas pela desconfiança entre camadas internas, melhorando significativamente a factualidade em diversas tarefas sem necessidade de re-treinamento do modelo.

Koduvayur Subbalakshmi, Sabbir Hossain Ujjal, Venkata Krishna Teja Mangichetty, Nastaran Jamalipour Soofi2026-03-10💬 cs.CL

To Mix or To Merge: Toward Multi-Domain Reinforcement Learning for Large Language Models

O artigo M2RL investiga e compara os paradigmas de RLVR misto versus separado com fusão de modelos para aprendizado por reforço em múltiplos domínios em LLMs, descobrindo que as tarefas de raciocínio intensivo exibem efeitos sinérgicos e pouca interferência mútua, conforme detalhado em sua análise de mecanismos internos.

Haoqing Wang, Xiang Long, Ziheng Li, Yilong Xu, Tingguang Li, Yehui Tang2026-03-10💻 cs

SkillsBench: Benchmarking How Well Agent Skills Work Across Diverse Tasks

O artigo apresenta o SkillsBench, um benchmark que demonstra que habilidades curadas aumentam significativamente o desempenho de agentes de IA em diversas tarefas, enquanto habilidades geradas automaticamente não oferecem benefícios e modelos menores equipados com habilidades podem superar modelos maiores sem elas.

Xiangyi Li, Wenbo Chen, Yimin Liu, Shenghan Zheng, Xiaokun Chen, Yifeng He, Yubo Li, Bingran You, Haotian Shen, Jiankai Sun, Shuyi Wang, Binxu Li, Qunhong Zeng, Di Wang, Xuandong Zhao, Yuanli Wang, Roey Ben Chaim, Zonglin Di, Yipeng Gao, Junwei He, Yizhuo He, Liqiang Jing, Luyang Kong, Xin Lan, Jiachen Li, Songlin Li, Yijiang Li, Yueqian Lin, Xinyi Liu, Xuanqing Liu, Haoran Lyu, Ze Ma, Bowei Wang, Runhui Wang, Tianyu Wang, Wengao Ye, Yue Zhang, Hanwen Xing, Yiqi Xue, Steven Dillmann, Han-chung Lee2026-03-10💻 cs