Estimating Treatment Effects with Independent Component Analysis

Questo articolo dimostra che l'Analisi delle Componenti Indipendenti (ICA) può essere utilizzata per stimare in modo coerente ed efficiente gli effetti del trattamento, sfruttando le stesse condizioni di momento dell'Apprendimento Automatico Ortogonale (OML) ma con prestazioni superiori in termini di efficienza del campione anche in presenza di confondenti gaussiani e effetti di disturbo non lineari.

Patrik Reizinger, Lester Mackey, Wieland Brendel + 1 more2026-03-02📊 stat

From Generator to Embedder: Harnessing Innate Abilities of Multimodal LLMs via Building Zero-Shot Discriminative Embedding Model

Questo paper propone un framework ad alta efficienza dati che trasforma i modelli linguistici multimodali generativi in modelli di embedding discriminativi zero-shot, utilizzando prompt di embedding gerarchici e un campionamento di negativi difficili auto-consapevole per superare i limiti del pre-addestramento contrastivo e delle false negative.

Yeong-Joon Ju, Seong-Whan Lee2026-03-02🤖 cs.AI

Mixed-Initiative Dialog for Human-Robot Collaborative Manipulation

Il paper presenta MICoBot, un sistema di dialoghi a iniziativa mista che coordina la collaborazione uomo-robot attraverso una pianificazione a tre livelli per adattare dinamicamente l'allocazione dei compiti alle capacità del robot e alla disponibilità dell'umano, migliorando significativamente il successo del compito e l'esperienza utente rispetto ai metodi tradizionali.

Albert Yu, Chengshu Li, Luca Macesanu + 4 more2026-03-02💬 cs.CL

On the Generalization of SFT: A Reinforcement Learning Perspective with Reward Rectification

Questo lavoro introduce Dynamic Fine-Tuning (DFT), un metodo che corregge la struttura di ricompasta implicita nella SFT standard attraverso una ridimensionamento dinamico dei gradienti, migliorando significativamente la generalizzazione dei modelli linguistici su compiti complessi come il ragionamento matematico e la generazione di codice.

Yongliang Wu, Yizhou Zhou, Zhou Ziheng + 7 more2026-03-02🤖 cs.LG

Unraveling Syntax: How Language Models Learn Context-Free Grammars

Questo lavoro estende la comprensione dell'apprendimento dei modelli linguistici sulle grammatiche libere dal contesto definendo i "sottogrammatici", dimostrando teoricamente che la perdita si decompone linearmente e che i modelli apprendono queste strutture in parallelo, mentre le evidenze empiriche rivelano che il preaddestramento migliora le rappresentazioni interne ma non risolve le difficoltà con la ricorsione profonda.

Laura Ying Schulz, Daniel Mitropolsky, Tomaso Poggio2026-03-02💬 cs.CL