Efficient Bayesian Updates for Deep Active Learning via Laplace Approximations

Questo articolo propone un metodo di aggiornamento bayesiano efficiente basato sull'approssimazione di Laplace per l'apprendimento attivo profondo, che sostituisce il costoso riaddestramento delle reti neurali con un passo di ottimizzazione del secondo ordine, consentendo una selezione di batch più rapida e diversificata.

Denis Huseljic, Marek Herde, Lukas Rauch, Paul Hahn, Zhixin Huang, Daniel Kottke, Stephan Vogt, Bernhard Sick2026-03-12🤖 cs.LG

An Updated Assessment of Reinforcement Learning for Macro Placement

Questo studio offre una valutazione aggiornata dell'approccio di apprendimento per rinforzo di Google Brain per il posizionamento dei macro, introducendo nuovi benchmark open-source, confrontando l'implementazione Circuit Training con baselines avanzate come la ricottura simulata e strumenti commerciali, e sollevando questioni critiche sulla riproducibilità e la scalabilità dei metodi esistenti.

Chung-Kuan Cheng, Andrew B. Kahng, Sayak Kundu, Yucheng Wang, Zhiang Wang2026-03-12🤖 cs.LG

Mindstorms in Natural Language-Based Societies of Mind

Il paper propone e sperimenta le "società di menti" basate sul linguaggio naturale (NLSOM), in cui grandi modelli linguistici e altri esperti neurali collaborano tramite un'interfaccia linguistica per superare i limiti dei singoli modelli e risolvere compiti multimodali complessi, aprendo al contempo nuove questioni di ricerca sulla struttura sociale e l'economia di tali sistemi di intelligenza artificiale emergenti.

Mingchen Zhuge, Haozhe Liu, Francesco Faccio, Dylan R. Ashley, Róbert Csordás, Anand Gopalakrishnan, Abdullah Hamdi, Hasan Abed Al Kader Hammoud, Vincent Herrmann, Kazuki Irie, Louis Kirsch, Bing Li, Guohao Li, Shuming Liu, Jinjie Mai, Piotr Pi\k{e}kos, Aditya Ramesh, Imanol Schlag, Weimin Shi, Aleksandar Stanic, Wenyi Wang, Yuhui Wang, Mengmeng Xu, Deng-Ping Fan, Bernard Ghanem, Jürgen Schmidhuber2026-03-12💬 cs.CL

Large Language Models for Travel Behavior Prediction

Questo studio dimostra che i grandi modelli linguistici (LLM), utilizzati sia tramite prompting zero-shot che come generatori di embedding per modelli supervisionati, offrono un'alternativa flessibile ed efficiente dal punto di vista dei dati per la previsione dei comportamenti di viaggio, raggiungendo prestazioni competitive rispetto ai modelli tradizionali.

Baichuan Mo, Hanyong Xu, Ruoyun Ma, Jung-Hoon Cho, Dingyi Zhuang, Xiaotong Guo, Jinhua Zhao2026-03-12💬 cs.CL

Communication-Efficient Multimodal Federated Learning: Joint Modality and Client Selection

Il paper presenta MFedMC, un framework di apprendimento federato multimodale efficiente nelle comunicazioni che, attraverso un'architettura disaccoppiata e un algoritmo di selezione congiunta di client e modalità basato su valori di Shapley, riduce l'overhead di comunicazione di oltre 20 volte mantenendo prestazioni comparabili ai metodi esistenti.

Liangqi Yuan, Dong-Jun Han, Su Wang, Devesh Upadhyay, Christopher G. Brinton2026-03-12🤖 cs.LG

Explainable machine learning for predicting shellfish toxicity in the Adriatic Sea using long-term monitoring data of HABs

Questo studio applica tecniche di machine learning spiegabile a un dataset di 28 anni nel Golfo di Trieste per prevedere con successo la tossicità delle cozze causata da fioriture algali, identificando specie specifiche e fattori ambientali come predittori chiave per migliorare i sistemi di allerta precoce e l'acquacoltura sostenibile.

Martin Marzidovšek, Janja Francé, Vid Podpečan + 3 more2026-03-12🤖 cs.AI

Mamba Neural Operator: Who Wins? Transformers vs. State-Space Models for PDEs

Il paper introduce il Mamba Neural Operator (MNO), un nuovo framework che supera i limiti dei Transformer nell'analisi delle equazioni differenziali alle derivate parziali (PDE) integrando i modelli a stato strutturato (SSM) per catturare in modo più efficace le dipendenze a lungo raggio e la dinamica continua, risultando così superiore in termini di accuratezza ed efficienza.

Chun-Wun Cheng, Jiahao Huang, Yi Zhang, Guang Yang, Carola-Bibiane Schönlieb, Angelica I. Aviles-Rivero2026-03-12🤖 cs.LG

Losing dimensions: Geometric memorization in generative diffusion

Questo studio rivela che i modelli di diffusione non memorizzano i dati in modo improvviso, ma subiscono un collasso geometrico graduale in cui, all'aumentare della scarsità dei dati, le capacità generative si restringono progressivamente su pochi esempi, passando dalla generalizzazione alla copia puntuale attraverso un processo di "congelamento" delle variazioni.

Beatrice Achilli, Enrico Ventura, Gianluigi Silvestri, Bao Pham, Gabriel Raya, Dmitry Krotov, Carlo Lucibello, Luca Ambrogioni2026-03-12📊 stat

Enhancing Brain Source Reconstruction by Initializing 3D Neural Networks with Physical Inverse Solutions

Il paper propone il metodo ibrido 3D-PIUNet, che migliora la ricostruzione delle sorgenti cerebrali EEG integrando una stima iniziale basata sulla fisica con una rete neurale 3D U-Net per affinare la soluzione, ottenendo una maggiore accuratezza spaziale rispetto ai metodi tradizionali e puramente data-driven.

Marco Morik, Ali Hashemi, Klaus-Robert Müller, Stefan Haufe, Shinichi Nakajima2026-03-12⚡ eess