TaoSR1: The Thinking Model for E-commerce Relevance Search

Il paper presenta TaoSR1, un framework che adatta i Large Language Models per la ricerca di rilevanza nell'e-commerce attraverso un processo in tre fasi di addestramento con Chain-of-Thought e ottimizzazione delle preferenze, risolvendo problemi di allucinazione e fattibilità di deployment per ottenere prestazioni superiori rispetto ai modelli basati su BERT.

Chenhe Dong, Shaowei Yao, Pengkun Jiao, Jianhui Yang, Yiming Jin, Zerui Huang, Xiaojiang Zhou, Dan Ou, Haihong Tang, Bo ZhengWed, 11 Ma🤖 cs.AI

Enhancing Retrieval-Augmented Generation with Entity Linking for Educational Platforms

Il paper presenta ELERAG, un'architettura RAG potenziata dal Linking di Entità e da una strategia di riordinamento ibrida, che dimostra come l'integrazione di segnali fattuali basati su Wikidata migliori significativamente l'accuratezza nei sistemi di domanda-risposta educativi in italiano, superando i metodi tradizionali nei contesti specifici di dominio pur mantenendo prestazioni competitive su dataset generali.

Francesco Granata, Francesco Poggi, Misael MongiovìWed, 11 Ma🤖 cs.AI

PathoScribe: Transforming Pathology Data into a Living Library with a Unified LLM-Driven Framework for Semantic Retrieval and Clinical Integration

Il paper presenta PathoScribe, un framework unificato basato su modelli linguistici di grandi dimensioni (LLM) che trasforma gli archivi di patologia statici in una "biblioteca vivente" interattiva, abilitando il recupero semantico, il ragionamento clinico e la costruzione automatizzata di coorti di ricerca con elevata precisione ed efficienza.

Abdul Rehman Akbar, Samuel Wales-McGrath, Alejadro Levya, Lina Gokhale, Rajendra Singh, Wei Chen, Anil Parwani, Muhammad Khalid Khan NiaziWed, 11 Ma🤖 cs.AI

Unlocking High-Fidelity Analog Joint Source-Channel Coding on Standard Digital Transceivers

Il paper presenta D2AJSCC, un nuovo framework che permette di implementare la codifica congiunta sorgente-canale analogica ad alta fedeltà su trasmettitori digitali standard, superando le limitazioni hardware tramite l'inversione computazionale della PHY e l'uso di una rete neurale surrogata differenziabile per garantire un addestramento end-to-end senza modifiche all'infrastruttura esistente.

Shumin Yao, Hao Chen, Yaping Sun, Nan Ma, Xiaodong Xu, Qinglin Zhao, Shuguang CuiWed, 11 Ma🔢 math

From Verification to Amplification: Auditing Reverse Image Search as Algorithmic Gatekeeping in Visual Misinformation Fact-checking

Questo studio evidenzia come la ricerca inversa di immagini di Google, utilizzata per la verifica delle notizie, funzioni come un gatekeeper algoritmico che spesso fallisce nel promuovere contenuti di smentita a causa della prevalenza di informazioni irrilevanti e della presenza di "vuoti di dati" all'insorgenza di disinformazione visiva.

Cong Lin, Yifei Chen, Jiangyue Chen, Yingdan Lu, Yilang Peng, Cuihua ShenWed, 11 Ma💻 cs

DataFactory: Collaborative Multi-Agent Framework for Advanced Table Question Answering

Il paper presenta DataFactory, un framework collaborativo multi-agente che supera le limitazioni dei modelli linguistici esistenti nelle risposte a domande su tabelle, combinando un coordinatore ReAct, team specializzati per database e grafi della conoscenza, e strategie di ingegneria del contesto per ottenere significativi miglioramenti di accuratezza e riduzione delle allucinazioni su diversi benchmark.

Tong Wang, Chi Jin, Yongkang Chen, Huan Deng, Xiaohui Kuang, Gang ZhaoWed, 11 Ma🤖 cs.AI

Evoking User Memory: Personalizing LLM via Recollection-Familiarity Adaptive Retrieval

Il paper propone RF-Mem, un sistema di recupero della memoria per LLM personalizzati che, ispirandosi al processo duale umano di familiarità e rievocazione, adatta dinamicamente la strategia di ricerca per migliorare precisione e scalabilità superando i limiti dei metodi tradizionali.

Yingyi Zhang, Junyi Li, Wenlin Zhang, Penyue Jia, Xianneng Li, Yichao Wang, Derong Xu, Yi Wen, Huifeng Guo, Yong Liu, Xiangyu ZhaoWed, 11 Ma💻 cs

TA-Mem: Tool-Augmented Autonomous Memory Retrieval for LLM in Long-Term Conversational QA

Il paper presenta TA-Mem, un nuovo framework di recupero autonomo della memoria potenziato da strumenti per i Large Language Models, che supera le limitazioni delle finestre contestuali e dei metodi di recupero statici attraverso un agente di estrazione adattivo, un database indicizzato multipli e un agente di recupero autonomo, ottenendo risultati significativamente migliori sul dataset LoCoMo.

Mengwei Yuan, Jianan Liu, Jing Yang, Xianyou Li, Weiran Yan, Yichao Wu, Penghao LiangWed, 11 Ma💬 cs.CL

PRECEPT: Planning Resilience via Experience, Context Engineering & Probing Trajectories A Unified Framework for Test-Time Adaptation with Compositional Rule Learning and Pareto-Guided Prompt Evolution

Il paper introduce PRECEPT, un quadro unificato per l'adattamento al momento del test che combina recupero deterministico di regole, memoria consapevole dei conflitti e un ciclo esterno guidato da Pareto (COMPASS) per migliorare significativamente la resilienza, la generalizzazione composizionale e la robustezza degli agenti LLM rispetto alla conoscenza obsoleta o avversaria.

Arash ShahmansooriWed, 11 Ma🤖 cs.AI

Automatic Cardiac Risk Management Classification using large-context Electronic Patients Health Records

Questo studio presenta un framework di classificazione automatizzata per la gestione del rischio cardiaco negli anziani, dimostrando che un'architettura Transformer personalizzata supera sia i metodi tradizionali che i modelli linguistici generici nell'analisi di lunghe storie cliniche non strutturate.

Jacopo Vitale, David Della Morte, Luca Bacco, Mario Merone, Mark de Groot, Saskia Haitjema, Leandro Pecchia, Bram van EsWed, 11 Ma🤖 cs.AI