Gradient is All You Need? How Consensus-Based Optimization can be Interpreted as a Stochastic Relaxation of Gradient Descent

Questo articolo dimostra che l'ottimizzazione basata sul consenso (CBO) può essere interpretata come una rilassazione stocastica della discesa del gradiente, spiegando così il suo successo nel superare le barriere energetiche nelle funzioni non convesse e rivelando una natura intrinseca di discesa del gradiente anche nei metodi privi di derivata.

Konstantin Riedl, Timo Klock, Carina Geldhauser + 1 more2026-03-02🤖 cs.LG

A Hormetic Approach to the Value-Loading Problem: Preventing the Paperclip Apocalypse?

Questo articolo propone HALO, un paradigma di allineamento basato sull'analisi ormetica dei processi antagonisti comportamentali, per risolvere il problema del caricamento dei valori e prevenire scenari catastrofici come quello del "massimizzatore di graffette" regolando le frequenze delle azioni dell'IA in base alla loro utilità marginale decrescente.

Nathan I. N. Henry, Mangor Pedersen, Matt Williams + 2 more2026-03-02📈 econ

Confronting Reward Overoptimization for Diffusion Models: A Perspective of Inductive and Primacy Biases

Il paper affronta il problema dell'iper-ottimizzazione della ricompensa nei modelli di diffusione identificando i bias induttivi temporali e di primacy come cause principali, proponendo quindi l'algoritmo TDPO-R che sfrutta il bias induttivo temporale e resetta i neuroni attivi del critic per mitigare tale fenomeno e migliorare l'allineamento con le preferenze umane.

Ziyi Zhang, Sen Zhang, Yibing Zhan + 3 more2026-03-02🤖 cs.LG

Kernel spectral joint embeddings for high-dimensional noisy datasets using duo-landmark integral operators

Il paper propone un nuovo metodo di embedding spettrale basato su kernel e operatori integrali "duo-landmark" per integrare dataset ad alta dimensionalità e rumorosi, dimostrando teoricamente la sua consistenza nel recuperare strutture latenti condivise e superiorità empirica rispetto alle tecniche esistenti in ambiti come la genomica a cellula singola.

Xiucai Ding, Rong Ma2026-03-02📊 stat

Spectral-Stimulus Information for Self-Supervised Stimulus Encoding

Questo studio introduce nuove misure di informazione spettrale-correlata per quantificare l'efficienza di codifica delle popolazioni neuronali, applicandole a dati biologici per rivelare differenze nell'efficienza di codifica e dimostrandone l'efficacia nell'addestramento di reti neurali ricorrenti tramite apprendimento auto-supervisionato, favorendo così l'emergere di cellule di luogo e di direzione della testa.

Jared Deighton, Wyatt Mackey, Ioannis Schizas + 2 more2026-03-02🧬 q-bio

Polynomial Scaling is Possible For Neural Operator Approximations of Structured Families of BSDEs

Questo lavoro dimostra che è possibile ottenere una scalabilità polinomiale nell'approssimazione di operatori neurali per famiglie strutturate di equazioni differenziali stocastiche retroattive non markoviane, superando i limiti esponenziali tipici grazie a un'architettura che incorpora bias induttivi specifici derivati dalla funzione di Green e dall'esponenziale di Doléans-Dade.

Takashi Furuya, Anastasis Kratsios2026-03-02💰 q-fin

Quantifying Climate Change Impacts on Renewable Energy Generation: A Super-Resolution Recurrent Diffusion Model

Questo studio presenta un modello di diffusione ricorrente a super-risoluzione (SRDM) che, superando i limiti temporali dei dati climatici tradizionali, genera previsioni ad alta risoluzione per quantificare con precisione l'impatto dei cambiamenti climatici sulla generazione di energia eolica e fotovoltaica in scenari futuri.

Xiaochong Dong, Jun Dan, Yingyun Sun + 3 more2026-03-02⚡ eess