Dropping Just a Handful of Preferences Can Change Top Large Language Model Rankings

O artigo propõe um método computacionalmente eficiente para avaliar a robustez dos rankings de LLMs, revelando que as classificações de modelos líderes em plataformas como o Chatbot Arena são extremamente sensíveis à remoção de uma fração mínima de preferências, ao passo que as avaliações baseadas em especialistas (MT-bench) demonstram maior estabilidade.

Jenny Y. Huang, Yunyi Shen, Dennis Wei + 1 more2026-03-06💻 cs

Quantitative convergence of trained single layer neural networks to Gaussian processes

Este artigo estabelece limites superiores explícitos para a distância de Wasserstein quadrática entre redes neurais de camada única treinadas por descida de gradiente e seus processos gaussianos associados no limite de largura infinita, demonstrando um decaimento polinomial do erro de aproximação em função da largura da rede e quantificando a influência dos parâmetros arquitetônicos e da dinâmica de treinamento.

Eloy Mosig, Andrea Agazzi, Dario Trevisan2026-03-06🔢 math

Generalization Below the Edge of Stability: The Role of Data Geometry

Este artigo estabelece teoricamente que a geometria dos dados determina a capacidade de generalização de redes neurais ReLU superparametrizadas treinadas abaixo do limite de estabilidade, demonstrando que dados mais difíceis de "fragmentar" favorecem a aprendizagem de padrões compartilhados, enquanto dados facilmente fragmentáveis levam à memorização.

Tongtong Liang, Alexander Cloninger, Rahul Parhi + 1 more2026-03-06💻 cs

Latent-IMH: Efficient Bayesian Inference for Inverse Problems with Approximate Operators

O artigo apresenta o Latent-IMH, um método de inferência bayesiana eficiente para problemas inversos lineares com operadores computacionalmente custosos, que utiliza aproximações baratas para gerar variáveis latentes e refiná-las com operadores exatos, deslocando o custo computacional para uma fase offline e superando em eficiência métodos de última geração como o NUTS.

Youguang Chen, George Biros2026-03-06🔢 math

Bayesian Modeling of Collatz Stopping Times: A Probabilistic Machine Learning Perspective

Este artigo analisa os tempos de parada da conjectura de Collatz para n107n \le 10^7 através de uma perspectiva de aprendizado de máquina probabilístico, demonstrando que um modelo hierárquico bayesiano de regressão Negativa Binomial supera aproximações geradoras baseadas em decomposição de blocos ímpares, enquanto evidencia que a estrutura modular de baixa ordem é um fator crucial para a heterogeneidade observada nos dados.

Nicolò Bonacorsi, Matteo Bordoni2026-03-06🔢 math