Knowledge Divergence and the Value of Debate for Scalable Oversight

Este trabajo establece un marco formal que vincula la seguridad mediante debate y el aprendizaje por refuerzo con retroalimentación de IA (RLAIF), demostrando que la ventaja del debate depende geométricamente de la divergencia de conocimientos entre los modelos y que solo es esencial cuando dicha divergencia alcanza un régimen lineal, permitiendo así revelar información latente inaccesible para un solo agente.

Robin Young2026-03-06🤖 cs.LG

Med-V1: Small Language Models for Zero-shot and Scalable Biomedical Evidence Attribution

Med-V1 es una familia de modelos de lenguaje pequeños y eficientes que, entrenados con datos sintéticos de alta calidad, superan a sus modelos base y rivalizan con modelos avanzados como GPT-5 en la atribución de evidencia biomédica, permitiendo aplicaciones escalables como la detección de alucinaciones en respuestas generadas por IA y la identificación de errores en guías clínicas.

Qiao Jin, Yin Fang, Lauren He + 12 more2026-03-06🤖 cs.AI

An Exploration-Analysis-Disambiguation Reasoning Framework for Word Sense Disambiguation with Low-Parameter LLMs

Este estudio demuestra que modelos de lenguaje de bajo parámetro (<4B), al ser ajustados finamente con estrategias de razonamiento como el pensamiento encadenado y análisis de palabras vecinas, pueden igualar o superar el rendimiento de modelos de alto parámetro en la desambiguación de sentido de palabras, ofreciendo una solución escalable y eficiente energéticamente.

Deshan Sumanathilaka, Nicholas Micallef, Julian Hough2026-03-06💬 cs.CL

Distributed Partial Information Puzzles: Examining Common Ground Construction Under Epistemic Asymmetry

Este artículo presenta el rompecabezas de información parcial distribuida (DPIP) y un conjunto de datos multimodales correspondiente para evaluar la capacidad de los modelos de lenguaje grandes y de los sistemas basados en lógica dinámica epistémica para construir un terreno común bajo asimetría epistémica, demostrando que las tareas de seguimiento de creencias y progreso del equipo representan un desafío significativo para los LLMs actuales.

Yifan Zhu, Mariah Bradford, Kenneth Lai + 4 more2026-03-06🤖 cs.AI

FlashAttention-4: Algorithm and Kernel Pipelining Co-Design for Asymmetric Hardware Scaling

El artículo presenta FlashAttention-4, una co-diseño de algoritmo y kernel optimizado para las GPUs Blackwell que aborda sus características de escalado asimétrico mediante nuevas técnicas de pipeline y emulación de software, logrando un rendimiento superior y tiempos de compilación significativamente más rápidos gracias a su implementación en CuTe-DSL.

Ted Zadouri, Markus Hoehnerbach, Jay Shah + 3 more2026-03-06💬 cs.CL

Leveraging LLM Parametric Knowledge for Fact Checking without Retrieval

Este trabajo propone el enfoque de verificación de hechos sin recuperación, introduce el método INTRA que aprovecha las representaciones internas de los modelos para lograr un rendimiento superior y generalización robusta, y establece esta línea de investigación como una alternativa escalable y complementaria a los métodos basados en recuperación.

Artem Vazhentsev, Maria Marina, Daniil Moskovskiy + 8 more2026-03-06🤖 cs.AI

Censored LLMs as a Natural Testbed for Secret Knowledge Elicitation

Este estudio utiliza modelos de lenguaje abiertos chinos que censuran temas políticamente sensibles como un banco de pruebas natural para evaluar técnicas de elicitación de honestidad y detección de mentiras, encontrando que métodos como el muestreo sin plantillas de chat y el prompting de autoevaluación mejoran la veracidad, aunque ninguna técnica elimina completamente las respuestas falsas.

Helena Casademunt, Bartosz Cywiński, Khoi Tran + 3 more2026-03-06🤖 cs.AI