ContextBench: Modifying Contexts for Targeted Latent Activation

Il paper introduce ContextBench, un benchmark per valutare metodi di modifica del contesto volti ad attivare specifiche caratteristiche latenti nei modelli linguistici, e dimostra che varianti avanzate dell'ottimizzazione evolutiva dei prompt riescono a bilanciare efficacemente forza di attivazione e fluidità linguistica.

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac BloomMon, 09 Ma🤖 cs.AI

Iterative Quantum Feature Maps

Il documento propone le Iterative Quantum Feature Maps (IQFMs), un framework ibrido quantistico-classico che costruisce architetture profonde collegando iterativamente mappe di feature quantistiche superficiali con pesi di aumento calcolati classicamente, riducendo così i tempi di esecuzione quantistica e mitigando gli effetti del rumore senza richiedere l'ottimizzazione di parametri quantistici variazionali.

Nasa Matsumoto, Quoc Hoan Tran, Koki Chinzei, Yasuhiro Endo, Hirotaka OshimaMon, 09 Ma⚛️ quant-ph

Kernel VICReg for Self-Supervised Learning in Reproducing Kernel Hilbert Space

Il paper propone Kernel VICReg, un nuovo framework di apprendimento auto-supervisionato che trasporta l'obiettivo VICReg in uno Spazio di Hilbert a Nucleo Riproducente (RKHS) per catturare dipendenze non lineari e migliorare le prestazioni su dati con strutture complesse o campioni limitati, superando i limiti dei metodi basati su spazio euclideo.

M. Hadi Sepanj, Benyamin Ghojogh, Saed Moradi, Paul FieguthMon, 09 Ma🤖 cs.LG

Spectral/Spatial Tensor Atomic Cluster Expansion with Universal Embeddings in Cartesian Space

Il paper introduce il Tensor Atomic Cluster Expansion (TACE), un modello di apprendimento automatico equivariante che unifica la modellazione scalare e tensoriale nello spazio cartesiano mediante tensori cartesiani irriducibili, offrendo un'alternativa efficiente e priva di accoppiamenti di Clebsch-Gordan che garantisce accuratezza, stabilità ed efficienza su una vasta gamma di sistemi, dalle molecole finite ai materiali estesi, inclusi dati reattivi e multi-fiducia.

Zemin Xu, Wenbo Xie, P. HuMon, 09 Ma🔬 cond-mat.mtrl-sci

Learning Centre Partitions from Summaries

Questo articolo propone un algoritmo sequenziale basato su test multivariati di tipo Cochran e una procedura bootstrap multi-round per identificare e aggregare gruppi di centri omogenei in studi multicentrici distribuiti, garantendo il recupero della partizione vera in condizioni asintotiche e dimostrando efficacia sia nelle simulazioni che nell'analisi dei dati reali.

Zinsou Max Debaly, Jean-Francois Ethier, Michael H. Neumann, Félix Camirand-LemyreMon, 09 Ma🔢 math

Data-Driven Global Sensitivity Analysis for Engineering Design Based on Individual Conditional Expectations

Questo articolo propone una nuova metrica di sensibilità globale basata sulle curve di aspettativa condizionata individuale (ICE) per superare i limiti dei Partial Dependence Plots nell'analisi delle interazioni tra variabili nei modelli di apprendimento automatico applicati al design ingegneristico, dimostrando la sua superiorità attraverso prove matematiche e valutazioni comparative su casi di studio aerospaziali.

Pramudita Satria Palar, Paul Saves, Rommel G. Regis, Koji Shimoyama, Shigeru Obayashi, Nicolas Verstaevel, Joseph MorlierMon, 09 Ma🤖 cs.AI

Improved Scaling Laws via Weak-to-Strong Generalization in Random Feature Ridge Regression

Questo articolo dimostra che, nell'ambito della regressione ridge a caratteristiche casuali, un modello "forte" addestrato su etichette imperfette generate da un modello "debole" può superare significativamente le leggi di scala del proprio insegnante, raggiungendo persino il tasso ottimale minimax indipendentemente dalle prestazioni del teacher.

Diyuan Wu, Lehan Chen, Theodor Misiakiewicz, Marco MondelliMon, 09 Ma🤖 cs.LG

Agnostic learning in (almost) optimal time via Gaussian surface area

Questo lavoro migliora i limiti superiori noti per l'apprendimento agnostico di classi di concetti rispetto alla misura gaussiana, dimostrando che un'approssimazione polinomiale di grado O~(Γ2/ε2)\tilde O(\Gamma^2 / \varepsilon^2) è sufficiente per ottenere una precisione ε\varepsilon, ottenendo così limiti (quasi) ottimali per l'apprendimento di funzioni soglia polinomiali nel modello delle query statistiche.

Lucas Pesenti, Lucas Slot, Manuel WiedmerMon, 09 Ma🤖 cs.LG