Condition-Gated Reasoning for Context-Dependent Biomedical Question Answering

Il paper introduce CondMedQA, il primo benchmark per la risposta condizionata alle domande biomediche, e CGR, un nuovo framework che migliora il ragionamento medico modellando esplicitamente le condizioni specifiche del paziente per selezionare le conoscenze appropriate.

Jash Rajesh Parekh, Wonbin Kweon, Joey Chan, Rezarta Islamaj, Robert Leaman, Pengcheng Jiang, Chih-Hsuan Wei, Zhizheng Wang, Zhiyong Lu, Jiawei HanTue, 10 Ma💬 cs.CL

MrBERT: Modern Multilingual Encoders via Vocabulary, Domain, and Dimensional Adaptation

Il paper introduce MrBERT, una famiglia di encoder multilingue basata sull'architettura ModernBERT e pre-addestrata su 35 lingue, che combina prestazioni di punta in domini specifici e linguaggi locali con l'efficienza operativa grazie all'apprendimento di rappresentazioni Matryoshka (MRL).

Daniel Tamayo, Iñaki Lacunza, Paula Rivera-Hidalgo, Severino Da Dalt, Javier Aula-Blasco, Aitor Gonzalez-Agirre, Marta VillegasTue, 10 Ma🤖 cs.LG

Conformal Prediction for Risk-Controlled Medical Entity Extraction Across Clinical Domains

Questo studio presenta un framework di previsione conforme che garantisce coperture finite per l'estrazione di entità mediche basata su LLM, rivelando come la calibrazione dipenda dal dominio clinico e dimostrando che l'adattamento specifico del settore permette di raggiungere un'affidabilità superiore al 90% sia su documenti strutturati che su rapporti radiologici liberi.

Manil Shrestha, Edward KimTue, 10 Ma💬 cs.CL

ARC-AGI-2 Technical Report

Il rapporto tecnico presenta un sistema basato su transformer che migliora le prestazioni nell'ARC-AGI combinando l'inferenza neurale con priors strutturati e adattamento online, ottenendo risultati superiori rispetto ai solutori precedenti e avvicinandosi alla generalizzazione di livello umano.

Wallyson Lemes de Oliveira, Mekhron Bobokhonov, Matteo Caorsi, Aldo Podestà, Gabriele Beltramo, Luca Crosato, Matteo Bonotto, Federica Cecchetto, Hadrien Espic, Dan Titus Salajan, Stefan Taga, Luca Pana, Joe CarthyTue, 10 Ma💬 cs.CL

A Coin Flip for Safety: LLM Judges Fail to Reliably Measure Adversarial Robustness

Questo studio dimostra che i giudizi automatizzati basati su LLM falliscono nel valutare in modo affidabile la robustezza avversariale a causa di significativi spostamenti distributivi, portando spesso a risultati vicini al caso casuale e a tassi di successo ingannevoli, e propone pertanto nuovi benchmark per migliorare la valutazione.

Leo Schwinn, Moritz Ladenburger, Tim Beyer, Mehrnaz Mofakhami, Gauthier Gidel, Stephan GünnemannTue, 10 Ma💬 cs.CL

Rethinking Personalization in Large Language Models at the Token Level

Il paper propone PerContrast e la funzione di perdita PerCE, un metodo che stima e potenzia l'importanza dei token specifici per l'utente a livello causale, migliorando significativamente le prestazioni di personalizzazione dei modelli linguistici su larga scala con costi computazionali minimi.

Chenheng Zhang, Yijun Lu, Lizhe Fang, Chunyuan Zheng, Jiajun Chai, Xiaohan Wang, Guojun Yin, Wei Lin, Yisen Wang, Zhouchen LinTue, 10 Ma💬 cs.CL

Know When You're Wrong: Aligning Confidence with Correctness for LLM Error Detection

Questo paper introduce un metodo per allineare la confidenza degli LLM alla correttezza delle loro risposte utilizzando punteggi normalizzati basati su token di ancoraggio, dimostrando che il fine-tuning supervisionato migliora l'affidabilità rispetto ai metodi di apprendimento per rinforzo e abilitando applicazioni pratiche come la generazione aumentata da recupero adattiva.

Xie Xiaohu, Liu Xiaohu, Yao BenjaminTue, 10 Ma🤖 cs.LG