Certified and accurate computation of function space norms of deep neural networks

Questo lavoro presenta un framework per il calcolo certificato e accurato delle norme negli spazi funzionali (come Lebesgue e Sobolev) delle reti neurali profonde, combinando l'aritmetica intervallare, la raffinamento adattivo e l'aggregazione basata su quadratura per ottenere limiti deterministici garantiti sugli integrali delle funzioni e delle loro derivate, superando i limiti delle valutazioni puntuali.

Johannes Gründler, Moritz Maibaum, Philipp PetersenMon, 09 Ma🤖 cs.LG

Bounds on Representation-Induced Confounding Bias for Treatment Effect Estimation

Questo articolo propone un nuovo quadro di refutazione agnostico rispetto alla rappresentazione, basato su reti neurali, per stimare i limiti del bias di confondimento indotto dalla riduzione dimensionale nell'analisi dell'effetto causale del trattamento, permettendo così di identificare parzialmente l'effetto e quantificare l'incertezza quando le rappresentazioni a bassa dimensionalità compromettono la validità delle stime.

Valentyn Melnychuk, Dennis Frauen, Stefan FeuerriegelFri, 13 Ma📊 stat

Weighted Random Dot Product Graphs

Questo articolo introduce un modello non parametrico di Grafo a Prodotto Scalare Casuale Pesato (WRDPG) che estende l'analisi delle reti ai grafi con pesi eterogenei, permettendo di discriminare distribuzioni di pesi con la stessa media ma momenti superiori diversi, e fornisce stime statistiche coerenti per le posizioni latenti dei nodi insieme a un framework generativo per la simulazione di tali grafi.

Bernardo Marenco, Paola Bermolen, Marcelo Fiori, Federico Larroca, Gonzalo MateosFri, 13 Ma📊 stat

Busemann Functions in the Wasserstein Space: Existence, Closed-Forms, and Applications to Slicing

Questo lavoro indaga l'esistenza e il calcolo delle funzioni di Busemann nello spazio di Wasserstein, fornendo espressioni in forma chiusa per distribuzioni unidimensionali e misure gaussiane che abilitano nuovi schemi di proiezione e distanze Sliced-Wasserstein applicati con successo a dataset sintetici e problemi di transfer learning.

Clément Bonet, Elsa Cazelles, Lucas Drumetz, Nicolas CourtyFri, 13 Ma📊 stat

Belief Dynamics Reveal the Dual Nature of In-Context Learning and Activation Steering

Questo lavoro propone un quadro bayesiano unificato che spiega come l'apprendimento in contesto e lo steering delle attivazioni controllino i modelli linguistici modificando le loro credenze latenti, rispettivamente attraverso l'accumulo di evidenze e la variazione dei prior, permettendo di prevedere e spiegare fenomeni comportamentali complessi come le curve di apprendimento sigmoidee e le transizioni brusche.

Eric Bigelow, Daniel Wurgaft, YingQiao Wang, Noah Goodman, Tomer Ullman, Hidenori Tanaka, Ekdeep Singh LubanaFri, 13 Ma📊 stat