Towards Solving Polynomial-Objective Integer Programming with Hypergraph Neural Networks

Questo articolo propone un metodo basato su reti neurali ipergrafiche (HNN) per risolvere problemi di programmazione intera con obiettivi polinomiali, utilizzando una rappresentazione ipergrafica avanzata e un processo di ricerca per ottenere soluzioni superiori rispetto agli approcci esistenti e ai solver più all'avanguardia.

Minshuo Li, Yaoxin Wu, Pavel Troubil, Yingqian Zhang, Wim P. M. Nuijten2026-03-23🤖 cs.LG

A General Deep Learning Framework for Wireless Resource Allocation under Discrete Constraints

Questo articolo propone un framework di deep learning generale che, introducendo un insieme di supporto per modellare le variabili discrete come distribuzioni di probabilità, risolve le sfide degli algoritmi esistenti nell'allocazione delle risorse wireless sotto vincoli discreti, garantendo gradienti non nulli, l'applicazione flessibile dei vincoli e la proprietà non-SPSD, con risultati superiori in scenari come l'associazione degli utenti e il posizionamento delle antenne.

Yikun Wang, Yang Li, Yik-Chung Wu, Rui Zhang2026-03-23🤖 cs.LG

Mathematical Modeling of Cancer-Bacterial Therapy: Analysis and Numerical Simulation via Physics-Informed Neural Networks

Questo studio presenta un modello matematico di cinque equazioni di reazione-diffusione accoppiate per la terapia batterica del cancro, ne dimostra la ben posta globalità e ne analizza la stabilità, utilizzando reti neurali informate dalla fisica (PINN) per simulare la dinamica tumorale e concludere che il controllo a lungo termine richiede il mantenimento di regioni ipossiche o l'uso di batteri più tolleranti all'ossigeno.

Ayoub Farkane, David Lassounon2026-03-23🧬 q-bio

DAPA: Distribution Aware Piecewise Activation Functions for On-Device Transformer Inference and Training

Il paper propone DAPA, una funzione di attivazione a tratti consapevole della distribuzione che, sfruttando un'approssimazione non uniforme e una quantizzazione ottimizzata, accelera il calcolo GELU e riduce l'utilizzo delle risorse hardware per l'inferenza e l'addestramento di modelli Transformer su dispositivi edge, mantenendo prestazioni competitive.

Maoyang Xiang, Bo Wang2026-03-23🤖 cs.LG