A Global Optimization Algorithm for K-Center Clustering of One Billion Samples

Questo articolo presenta un algoritmo di ottimizzazione globale basato su un metodo branch-and-bound a spazio ridotto, dotato di un limite inferiore decomponibile e tecniche di accelerazione, in grado di risolvere il problema del clustering K-center per un miliardo di campioni garantendo l'ottimalità globale e riducendo significativamente la funzione obiettivo rispetto ai metodi euristici.

Jiayang Ren, Ningning You, Kaixun Hua + 2 more2026-03-04🤖 cs.LG

Dynamic Deep-Reinforcement-Learning Algorithm in Partially Observable Markov Decision Processes

Questo studio presenta tre nuovi algoritmi di apprendimento per rinforzo profondo dinamico per processi decisionali di Markov parzialmente osservabili, dimostrando che l'inclusione delle traiettorie delle azioni e l'uso di stati nascosti generati dalla rete attore per addestrare la rete critica (come nell'algoritmo H-TD3) migliorano l'efficienza computazionale mantenendo alte prestazioni.

Saki Omi, Hyo-Sang Shin, Namhoon Cho + 1 more2026-03-04🤖 cs.LG

Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews

Questo studio presenta un modello statistico per stimare la frazione di testo generato o modificato da LLM nelle revisioni paritarie di conferenze sull'intelligenza artificiale, rivelando che tra il 6,5% e il 16,9% del contenuto potrebbe essere influenzato da ChatGPT, con una correlazione significativa tra l'uso di tali strumenti e fattori come la bassa confidenza, la vicinanza alla scadenza e la riluttanza a rispondere alle obiezioni degli autori.

Weixin Liang, Zachary Izzo, Yaohui Zhang + 9 more2026-03-04🤖 cs.AI

Accelerating Ensemble Error Bar Prediction with Single Models Fits

Questo lavoro propone un metodo efficiente per la quantificazione dell'incertezza che, addestrando un singolo modello su dati sintetici derivati da un ensemble, permette di stimare gli intervalli di errore con un costo computazionale quasi pari a quello di un modello singolo, evitando la necessità di eseguire un intero ensemble durante l'inferenza.

Vidit Agrawal, Shixin Zhang, Lane E. Schultz + 1 more2026-03-04🔬 cond-mat.mtrl-sci

Learning Lagrangian Interaction Dynamics with Sampling-Based Model Order Reduction

Il paper presenta GIOROM, un framework di riduzione d'ordine basato sul campionamento che evolve sistemi lagrangiani direttamente nello spazio fisico utilizzando operatori neurali e una parametrizzazione di kernel apprendibile, ottenendo una significativa riduzione della dimensionalità mantenendo un'alta fedeltà nella simulazione di fluidi, mezzi granulari e dinamiche elastoplastiche.

Hrishikesh Viswanath, Yue Chang, Aleksey Panas + 3 more2026-03-04🤖 cs.LG

Covering Numbers for Deep ReLU Networks with Applications to Function Approximation and Nonparametric Regression

Questo lavoro colma una lacuna nella letteratura derivando limiti superiori e inferiori stretti per i numeri di copertura delle reti neurali ReLU, permettendo di comprendere l'impatto di sparsità e quantizzazione, ottimizzare la compressione delle reti e migliorare i tassi di convergenza nella regressione non parametrica rimuovendo un fattore logaritmico superfluo.

Weigutian Ou, Helmut Bölcskei2026-03-04📊 stat