Sample-Optimal Locally Private Hypothesis Selection and the Provable Benefits of Interactivity

Os autores propõem um algoritmo de seleção de hipóteses com privacidade diferencial local que, utilizando apenas O(loglogk)O(\log \log k) rodadas de interação, atinge uma complexidade de amostra ótima de Θ(k/(α2min{ε2,1}))\Theta(k/(\alpha^2 \min\{\varepsilon^2, 1\})), superando os limites inferiores conhecidos para métodos não interativos e eliminando o fator logarítmico adicional exigido por algoritmos anteriores.

Alireza F. Pour, Hassan Ashtiani, Shahab Asoodeh2026-03-05🤖 cs.LG

AuToMATo: An Out-Of-The-Box Persistence-Based Clustering Algorithm

O artigo apresenta o AuToMATo, um novo algoritmo de agrupamento baseado em homologia persistente que, ao combinar o algoritmo ToMATo com um procedimento de *bootstrapping* e oferecer parâmetros padrão eficazes, destaca-se como uma solução "pronta para uso" que supera tanto algoritmos livres de parâmetros quanto as melhores configurações de outros métodos, sendo especialmente útil para aplicações em análise de dados topológicos como o algoritmo Mapper.

Marius Huber, Sara Kalisnik, Patrick Schnider2026-03-05🤖 cs.LG

DCENWCNet: A Deep CNN Ensemble Network for White Blood Cell Classification with LIME-Based Explainability

O artigo apresenta o DCENWCNet, uma nova rede neural convolucional emsemble que integra três arquiteturas CNN com configurações distintas para superar os desafios de desequilíbrio de dados na classificação de glóbulos brancos, alcançando desempenho superior em métricas de precisão e incorporando a técnica LIME para garantir a interpretabilidade e confiança nas previsões de diagnóstico automatizado.

Sibasish Dhibar2026-03-05🤖 cs.AI

Scalable physics-informed deep generative model for solving forward and inverse stochastic differential equations

Este estudo propõe o modelo sPI-GeM, uma arquitetura de aprendizado profundo escalável e baseada em física que combina redes de base e modelos generativos para resolver com precisão problemas de equações diferenciais estocásticas (SDEs) em espaços de alta dimensão tanto estocástica quanto espacial, abordando tanto cenários diretos quanto inversos.

Shaoqian Zhou, Wen You, Ling Guo + 1 more2026-03-05🔬 physics

A Copula Based Supervised Filter for Feature Selection in Diabetes Risk Prediction Using Machine Learning

Este artigo propõe um filtro supervisionado baseado em cópula Gumbel para seleção de características na previsão de risco de diabetes, demonstrando que sua métrica de concordância de cauda superior (lambda U) identifica preditores clinicamente relevantes de forma eficiente e robusta em grandes conjuntos de dados, superando filtros padrão e competindo com métodos mais complexos.

Agnideep Aich, Md Monzur Murshed, Sameera Hewage + 1 more2026-03-05🤖 cs.LG

Boosting In-Context Learning in LLMs Through the Lens of Classical Supervised Learning

Este artigo propõe a Calibração Supervisionada (SC), uma nova estrutura baseada em minimização de perda que supera as limitações dos métodos de calibração existentes em Aprendizado em Contexto (ICL) ao aprender transformações afins otimizadas para corrigir vieses sistemáticos e alterar a orientação das fronteiras de decisão de Grandes Modelos de Linguagem, alcançando desempenho superior em diversos conjuntos de dados e modelos.

Korel Gundem, Juncheng Dong, Dennis Zhang + 2 more2026-03-05🤖 cs.AI

Learning in an Echo Chamber: Online Learning with Replay Adversary

Este artigo introduz o modelo de Aprendizado Online com Adversário de Replay para analisar o risco de sistemas de aprendizado reforçarem erros em dados autoanotados, propondo a Dimensão de Limiar Estendido como a medida exata de aprendibilidade e demonstrando que algoritmos baseados em fechamento alcançam limites ótimos de erro, superando as limitações de métodos clássicos e de aprendizagem própria neste cenário.

Daniil Dmitriev, Harald Eskelund Franck, Carolin Heinzler + 1 more2026-03-05🤖 cs.LG

Implicit Bias of Per-sample Adam on Separable Data: Departure from the Full-batch Regime

Este trabalho demonstra que o viés implícito do Adam com amostras individuais (incremental) em dados linearmente separáveis pode divergir do regime de lote completo, convergindo para classificadores de margem máxima em normas diferentes (como 2\ell_2 em vez de \ell_\infty) dependendo do conjunto de dados, ao contrário do Signum, que mantém invariância no viés para qualquer tamanho de lote.

Beomhan Baek, Minhak Song, Chulhee Yun2026-03-05🤖 cs.AI