Stochastic Neural Networks for Quantum Devices

Questo lavoro presenta una formulazione per esprimere e ottimizzare le reti neurali stocastiche come circuiti quantistici su computer a gate, utilizzando un algoritmo di Kiefer-Wolfowitz combinato con ricottura simulata per addestrare diverse architetture e dimostrandone l'impiego come oracolo nell'algoritmo di Grover per realizzare un modello di intelligenza artificiale generativa quantistica.

Bodo Rosenhahn, Tobias J. Osborne, Christoph Hirche2026-02-27⚛️ quant-ph

Multi-Dimensional Spectral Geometry of Biological Knowledge in Single-Cell Transformer Representations

Lo studio dimostra che i modelli fondazionali a singola cellula come scGPT organizzano le rappresentazioni geniche in un sistema di coordinate biologiche interpretabile, dove assi spettrali specifici codificano la localizzazione subcellulare, le reti di interazione proteica e le relazioni regolatorie, rivelando una struttura geometrica interna che riflette l'organizzazione cellulare.

Ihor Kendiukhov2026-02-27🧬 q-bio

Causal Direction from Convergence Time: Faster Training in the True Causal Direction

Il paper introduce la Causal Computational Asymmetry (CCA), un principio che identifica la direzione causale osservando come i modelli neurali convergano più rapidamente nella direzione vera rispetto a quella inversa a causa di un pavimento di errore irriducibile e di rumore del gradiente non separabile, integrando tale metodo in un più ampio framework di Causal Compression Learning (CCL) con garanzie teoriche e validazione empirica.

Abdulrahman Tamim2026-02-27🤖 cs.AI

Code World Models for Parameter Control in Evolutionary Algorithms

Questo lavoro dimostra che i Code World Models, estesi agli algoritmi evolutivi stocastici, permettono a un LLM di sintetizzare un simulatore dei dinamiche dell'ottimizzatore per controllare dinamicamente la forza di mutazione, ottenendo prestazioni superiori rispetto alle basi di riferimento e ai metodi di apprendimento per rinforzo su diversi problemi di ottimizzazione combinatoria.

Camilo Chacón Sartori, Guillem Rodríguez Corominas2026-02-27🤖 cs.LG

AutoQRA: Joint Optimization of Mixed-Precision Quantization and Low-rank Adapters for Efficient LLM Fine-Tuning

Il paper presenta AutoQRA, un framework di ottimizzazione congiunta che determina automaticamente la configurazione ottimale di bit-width e rank LoRA per ogni strato durante il fine-tuning di LLM, permettendo di raggiungere prestazioni vicine a quelle della precisione completa con un footprint di memoria paragonabile ai metodi quantizzati uniformi a 4 bit.

Changhai Zhou, Shiyang Zhang, Yuhua Zhou + 5 more2026-02-27🤖 cs.LG

FIRE: A Comprehensive Benchmark for Financial Intelligence and Reasoning Evaluation

Il paper introduce FIRE, un benchmark completo per valutare le conoscenze teoriche e le capacità pratiche di ragionamento finanziario dei modelli linguistici, basato su domande tratte da esami di qualificazione e su 3.000 scenari aziendali reali, fornendo inoltre un'analisi delle capacità dei modelli più avanzati, incluso il modello finanziario XuanYuan 4.0.

Xiyuan Zhang, Huihang Wu, Jiayu Guo + 8 more2026-02-27🤖 cs.AI

Integrating Machine Learning Ensembles and Large Language Models for Heart Disease Prediction Using Voting Fusion

Questo studio dimostra che l'integrazione di un ensemble di modelli di machine learning con il ragionamento di un Large Language Model tramite fusione per votazione supera le prestazioni dei singoli approcci, raggiungendo un'accuratezza del 96,62% nella previsione delle malattie cardiache e offrendo un supporto decisionale clinico più affidabile.

Md. Tahsin Amin, Tanim Ahmmod, Zannatul Ferdus + 5 more2026-02-27🤖 cs.AI