Computational modeling of early language learning from acoustic speech and audiovisual input without linguistic priors

Questo capitolo esamina i recenti progressi nei modelli computazionali che, attraverso l'apprendimento auto-supervisionato e la fondazione visiva, spiegano come gli infanti acquisiscano il linguaggio da input acustici e audiovisivi senza ricorrere a precondizioni linguistiche, dimostrando come principi di apprendimento condivisi possano unificare diverse teorie sullo sviluppo cognitivo.

Okko Räsänen2026-03-10💬 cs.CL

COACH meets QUORUM: A Framework and Pipeline for Aligning User, Expert and Developer Perspectives in LLM-generated Health Counselling

Il paper presenta QUORUM, un framework di valutazione che unisce le prospettive di sviluppatori, esperti e utenti, e COACH, una pipeline basata su LLM per generare consigli sullo stile di vita personalizzati per pazienti oncologici, dimostrando come un approccio multi-stakeholder sia essenziale per sviluppare sistemi di linguaggio sanitario affidabili e centrati sul paziente.

Yee Man Ng, Bram van Dijk, Pieter Beynen, Otto Boekesteijn, Joris Jansen, Gerard van Oortmerssen, Max van Duijn, Marco Spruit2026-03-10💬 cs.CL

Revealing Behavioral Plasticity in Large Language Models: A Token-Conditional Perspective

Il paper presenta ToCoRL, un framework che sfrutta la plasticità comportamentale intrinseca dei modelli linguistici di grandi dimensioni, rivelata attraverso la generazione condizionata ai token, per internalizzare tramite apprendimento per rinforzo adattamenti comportamentali stabili che permettono un controllo preciso delle modalità di risposta (come passare dal ragionamento passo-passo alla risposta diretta) senza degradare le capacità del modello.

Liyuan Mao, Le Yu, Jing Zhou, Chujie Zheng, Bowen Yu, Chang Gao, Shixuan Liu, An Yang, Weinan Zhang, JunYang Lin2026-03-10🤖 cs.LG

Sandpiper: Orchestrated AI-Annotation for Educational Discourse at Scale

Il paper presenta Sandpiper, un sistema misto che integra dashboard interattive e motori LLM per scalare l'analisi qualitativa dei discorsi educativi digitali, garantendo al contempo privacy, rigore metodologico e affidabilità attraverso l'orchestrazione vincolata e la de-identificazione automatica.

Daryl Hedley, Doug Pietrzak, Jorge Dias, Ian Burden, Bakhtawar Ahtisham, Zhuqian Zhou, Kirk Vanacore, Josh Marland, Rachel Slama, Justin Reich, Kenneth Koedinger, René Kizilcec2026-03-10💬 cs.CL

A prospective clinical feasibility study of a conversational diagnostic AI in an ambulatory primary care clinic

Questo studio prospettico di fattibilità dimostra che un'intelligenza artificiale conversazionale basata su modelli linguistici (AMIE) può condurre in sicurezza colloqui clinici e formulare diagnosi differenziali in un contesto di cure primarie reale, ottenendo un'alta soddisfazione dei pazienti e una qualità delle diagnosi paragonabile a quella dei medici, sebbene i medici superino l'AI nella praticità e nel costo delle terapie proposte.

Peter Brodeur, Jacob M. Koshy, Anil Palepu, Khaled Saab, Ava Homiar, Roma Ruparel, Charles Wu, Ryutaro Tanno, Joseph Xu, Amy Wang, David Stutz, Hannah M. Ferrera, David Barrett, Lindsey Crowley, Jihyeon Lee, Spencer E. Rittner, Ellery Wulczyn, Selena K. Zhang, Elahe Vedadi, Christine G. Kohn, Kavita Kulkarni, Vinay Kadiyala, Sara Mahdavi, Wendy Du, Jessica Williams, David Feinbloom, Renee Wong, Tao Tu, Petar Sirkovic, Alessio Orlandi, Christopher Semturs, Yun Liu, Juraj Gottweis, Dale R. Webster, Joëlle Barral, Katherine Chou, Pushmeet Kohli, Avinatan Hassidim, Yossi Matias, James Manyika, Rob Fields, Jonathan X. Li, Marc L. Cohen, Vivek Natarajan, Mike Schaekermann, Alan Karthikesalingam, Adam Rodman2026-03-10🤖 cs.LG

LycheeCluster: Efficient Long-Context Inference with Structure-Aware Chunking and Hierarchical KV Indexing

LycheeCluster è un metodo innovativo per la gestione efficiente della cache KV nei modelli linguistici su contesti lunghi, che combina un'analisi semantica dei blocchi e un indicizzazione gerarchica per ridurre la complessità di ricerca da lineare a logaritmica, ottenendo un'accelerazione fino a 3,6 volte rispetto agli stati dell'arte.

Dongfang Li, Zixuan Liu, Gang Lin, Baotian Hu, Min Zhang2026-03-10🤖 cs.LG

Fanar-Sadiq: A Multi-Agent Architecture for Grounded Islamic QA

Il paper presenta Fanar-Sadiq, un assistente islamico bilingue basato su un'architettura multi-agente che combina recupero di informazioni, calcolo deterministico e verifica delle fonti per fornire risposte precise e radicate nei testi canonici su zakat, eredità e giurisprudenza, superando le limitazioni degli attuali modelli linguistici.

Ummar Abbas, Mourad Ouzzani, Mohamed Y. Eltabakh, Omar Sinan, Gagan Bhatia, Hamdy Mubarak, Majd Hawasly, Mohammed Qusay Hashim, Kareem Darwish, Firoj Alam2026-03-10💬 cs.CL

Drift-to-Action Controllers: Budgeted Interventions with Online Risk Certificates

Il paper introduce Drift2Act, un controller che trasforma il monitoraggio della deriva dei dati in un processo decisionale vincolato, combinando stime di drift e certificati di rischio online per attivare interventi sicuri e a basso costo, garantendo il rispetto dei vincoli di budget e riducendo le violazioni di sicurezza.

Ismail Lamaakal, Chaymae Yahyati, Khalid El Makkaoui, Ibrahim Ouahbi, Yassine Maleh2026-03-10🤖 cs.LG

OfficeQA Pro: An Enterprise Benchmark for End-to-End Grounded Reasoning

Il paper introduce OfficeQA Pro, un benchmark per valutare le capacità di ragionamento fondato su documenti degli agenti AI, rivelando che anche i modelli linguistici più avanzati faticano a ottenere risultati affidabili su un vasto corpus di bollettini del Tesoro degli Stati Uniti, sebbene l'uso di rappresentazioni documentali strutturate possa migliorare significativamente le prestazioni.

Krista Opsahl-Ong, Arnav Singhvi, Jasmine Collins, Ivan Zhou, Cindy Wang, Ashutosh Baheti, Owen Oertell, Jacob Portes, Sam Havens, Erich Elsen, Michael Bendersky, Matei Zaharia, Xing Chen2026-03-10💬 cs.CL

How Far Can Unsupervised RLVR Scale LLM Training?

Questo lavoro analizza l'apprendimento per rinforzo non supervisionato con ricompense verificabili (URLVR), rivelando che i metodi intrinseci tendono al collasso del modello a causa di un allineamento errato tra confidenza e correttezza, mentre le ricompense esterne basate sull'asimmetria computazionale offrono una potenziale via di fuga per superare questi limiti di scalabilità.

Bingxiang He, Yuxin Zuo, Zeyuan Liu, Shangziqi Zhao, Zixuan Fu, Junlin Yang, Cheng Qian, Kaiyan Zhang, Yuchen Fan, Ganqu Cui, Xiusi Chen, Youbang Sun, Xingtai Lv, Xuekai Zhu, Li Sheng, Ran Li, Huan-ang Gao, Yuchen Zhang, Bowen Zhou, Zhiyuan Liu, Ning Ding2026-03-10🤖 cs.LG

Agentic Critical Training

Il paper propone l'Agentic Critical Training (ACT), un paradigma di apprendimento per rinforzo che supera i limiti dell'imitazione addestrando gli agenti a identificare autonomamente le azioni migliori tra alternative, sviluppando così una genuina capacità di auto-riflessione che migliora significativamente le prestazioni e la generalizzazione rispetto ai metodi esistenti.

Weize Liu, Minghui Liu, Sy-Tuyen Ho, Souradip Chakraborty, Xiyao Wang, Furong Huang2026-03-10🤖 cs.LG