How Private Are DNA Embeddings? Inverting Foundation Model Representations of Genomic Sequences

Questo studio dimostra che le rappresentazioni vettoriali (embedding) dei modelli fondazionali del DNA, spesso condivise come servizio, sono vulnerabili ad attacchi di inversione che permettono agli avversari di ricostruire quasi perfettamente le sequenze genomiche sensibili originali, evidenziando la necessità urgente di progettare tali modelli con criteri di privacy.

Sofiane Ouaari, Jules Kreuer, Nico Pfeifer2026-03-10🤖 cs.LG

Post-Training with Policy Gradients: Optimality and the Base Model Barrier

Il documento dimostra che, sebbene i metodi di Policy Gradient ottimizzino l'addestramento post-preliminare dei modelli autoregressivi lineari tramite ricompense di esito, essi incontrano una barriera fondamentale legata al supporto del modello di base che può richiedere un numero esponenziale di query, barriera che può essere superata utilizzando ricompense di processo che sfruttano una quantile di verosimiglianza a livello di token per evitare la maledizione della dimensionalità.

Alireza Mousavi-Hosseini, Murat A. Erdogdu2026-03-10🤖 cs.LG

Chart-RL: Generalized Chart Comprehension via Reinforcement Learning with Verifiable Rewards

Il paper introduce Chart-RL, un metodo di apprendimento per rinforzo che utilizza ricompense matematicamente verificabili per migliorare la comprensione dei grafici nei modelli visione-linguaggio, dimostrando che la complessità dei dati di addestramento è più cruciale della quantità e ottenendo prestazioni superiori rispetto al fine-tuning supervisionato su vari benchmark.

Xin Zhang, Xingyu Li, Rongguang Wang, Ruizhong Miao, Zheng Wang, Dan Roth, Chenyang Li2026-03-10🤖 cs.LG

A SISA-based Machine Unlearning Framework for Power Transformer Inter-Turn Short-Circuit Fault Localization

Questo articolo propone un framework di disapprendimento automatico basato su SISA per la localizzazione dei cortocircuiti tra spire nei trasformatori di potenza, che consente di rimuovere efficacemente l'influenza di dati dannosi riaddestrando solo i modelli interessati, riducendo così drasticamente i tempi di elaborazione rispetto al riaddestramento completo.

Nanhong Liu, Jingyi Yan, Mucun Sun, Jie Zhang2026-03-10🤖 cs.LG

Topology-Aware Reinforcement Learning over Graphs for Resilient Power Distribution Networks

Questo studio presenta un framework di apprendimento per rinforzo basato su grafi e topologia che, integrando l'analisi della persistenza omologica, ottimizza la riconfigurazione e il carico nei reti di distribuzione elettrica per migliorare la resilienza e la stabilità operativa durante eventi estremi.

Roshni Anna Jacob, Prithvi Poddar, Jaidev Goel, Souma Chowdhury, Yulia R. Gel, Jie Zhang2026-03-10🤖 cs.LG

Conditional Unbalanced Optimal Transport Maps: An Outlier-Robust Framework for Conditional Generative Modeling

Il documento presenta CUOTM, un nuovo modello generativo condizionale basato su un framework di Trasporto Ottimo Non Bilanciato che, rilassando i vincoli di corrispondenza delle distribuzioni tramite penalità di divergenza di Csiszár, risolve efficacemente la sensibilità agli outlier tipica dei metodi tradizionali mantenendo un'elevata efficienza di campionamento.

Jiwoo Yoon, Kyumin Choi, Jaewoong Choi2026-03-10🤖 cs.LG

Diffusion Controller: Framework, Algorithms and Parameterization

Il paper introduce DiffCon, un quadro unificato basato sul controllo stocastico e sugli MDP linearmente risolvibili che riformula il campionamento inverso di diffusione come un problema di controllo, derivando algoritmi di ottimizzazione efficienti e una parametrizzazione a rete laterale che migliorano l'allineamento e l'efficienza nel fine-tuning dei modelli di diffusione rispetto alle tecniche esistenti.

Tong Yang, Moonkyung Ryu, Chih-Wei Hsu, Guy Tennenholtz, Yuejie Chi, Craig Boutilier, Bo Dai2026-03-10🤖 cs.LG

RESCHED: Rethinking Flexible Job Shop Scheduling from a Transformer-based Architecture with Simplified States

Il paper presenta \textsc{ReSched}, un framework di apprendimento per rinforzo profondo minimalista basato su Transformer che, riducendo lo stato a sole quattro caratteristiche essenziali e adottando un'architettura semplificata, supera i metodi esistenti nel problema di scheduling flessibile dei lavori e dimostra una forte capacità di generalizzazione su varianti correlate.

Xiangjie Xiao, Cong Zhang, Wen Song, Zhiguang Cao2026-03-10🤖 cs.LG

Entropy-Aware On-Policy Distillation of Language Models

Il paper propone la "Distillazione On-Policy Consapevole dell'Entropia", un metodo che combina divergenze KL inverse e dirette per gestire l'incertezza dell'insegnante, migliorando la diversità generativa e le prestazioni di ragionamento matematico nei modelli linguistici rispetto alle tecniche di distillazione tradizionali.

Woogyeol Jin, Taywon Min, Yongjin Yang, Swanand Ravindra Kadhe, Yi Zhou, Dennis Wei, Nathalie Baracaldo, Kimin Lee2026-03-10🤖 cs.LG