When Relaxation Does Not Help: RLDCs with Small Soundness Yield LDCs

Questo lavoro dimostra che qualsiasi codice decodificabile localmente rilassato (RLDC) con errore di soundness inferiore a una certa soglia, anche se non lineare e con completezza imperfetta, può essere trasformato in un codice decodificabile localmente (LDC) con parametri comparabili, generalizzando risultati precedenti e permettendo di derivare nuovi limiti inferiori per RLDC, RLCC e PCPP.

Kuan Cheng, Xin Li, Songtao Mao2026-03-05🔢 math

Joint Gaussian Beam Pattern and Its Optimization for Positioning-Assisted Systems

Questo articolo propone un'analisi e un'ottimizzazione del pattern di fascio gaussiano congiunto per sistemi di posizionamento assistito, derivando espressioni in forma chiusa per la probabilità di interruzione e il pattern ottimale in scenari bidimensionali e tridimensionali, dimostrando come tale approccio possa ridurre l'overhead di stima dello stato del canale rispetto ai metodi tradizionali basati sul CSI.

Yuanbo Liu, Bingcheng Zhu, Shuojin Huang + 2 more2026-03-05🔢 math

Training-Free Rate-Distortion-Perception Traversal With Diffusion

Questo lavoro propone un framework senza addestramento che, sfruttando modelli di diffusione pre-addestrati e un modulo di codifica del canale inverso, permette di navigare l'intera superficie del compromesso tra velocità, distorsione e percezione (RDP) senza necessità di riaddestramento, offrendo una soluzione sia teoricamente fondata che empiricamente efficace per la compressione adattiva.

Yuhan Wang, Suzhi Bi, Ying-Jun Angela Zhang2026-03-05🤖 cs.LG

Differential Goppa Codes

Questo lavoro presenta un trattamento rigoroso dei codici Goppa differenziali su curve proiettive lisce di genere arbitrario, definendoli tramite fasci invertibili e derivati di Hasse-Schmidt, analizzando la loro dipendenza dai parametri locali, stabilendo un teorema di dualità e dimostrando che ogni codice lineare ammette una struttura di codice Goppa differenziale sulla retta proiettiva.

David González González, Ángel Luis Muñoz Castañeda, Luis Manuel Navas Vicente2026-03-05🔢 math

FedCova: Robust Federated Covariance Learning Against Noisy Labels

Il paper propone FedCova, un framework di apprendimento federato robusto che elimina la dipendenza da dati esterni o dispositivi puliti, migliorando la resilienza intrinseca del modello contro le etichette rumorose attraverso un nuovo approccio basato sull'analisi delle covarianze delle caratteristiche per l'encoding, la classificazione e la correzione delle etichette.

Xiangyu Zhong, Xiaojun Yuan, Ying-Jun Angela Zhang2026-03-05🤖 cs.LG

Self-restricting Noise and Exponential Relative Entropy Decay Under Unital Quantum Markov Semigroups

Questo studio dimostra che, sebbene l'assenza di equilibrio dettagliato possa inizialmente ostacolare il decadimento esponenziale dell'entropia relativa in semigruppi di Markov quantistici unitali, tale decadimento riemerge a scale temporali finite con una velocità inversamente proporzionale alla forza della dissipazione, un fenomeno definito "rumore auto-limitante".

Nicholas LaRacuente2026-03-04⚛️ quant-ph

Quantum error correction beyond SU(2)SU(2): spin, bosonic, and permutation-invariant codes from convex geometry

Il paper presenta un quadro unificato basato sulla geometria convessa e il teorema di Tverberg per costruire e convertire nuovi codici quantistici correttori di errori e porte logiche in spazi di spin, bosonici e permutazionali, ottenendo famiglie di codici con distanza quasi lineare e parametri superiori rispetto alle soluzioni esistenti.

Arda Aydin, Victor V. Albert, Alexander Barg2026-03-04⚛️ quant-ph