Formal that "Floats" High: Formal Verification of Floating Point Arithmetic

Este artículo presenta una metodología escalable para la verificación formal de la aritmética de punto flotante que, mediante un enfoque modular de comprobación de modelos RTL-a-RTL, estrategias de refinamiento guiadas por contraejemplos y la integración de inteligencia artificial generativa con supervisión humana, logra una mayor eficiencia de cobertura y reduce la dependencia de modelos de alto nivel.

Hansa Mohanty, Vaisakh Naduvodi Viswambharan, Deepak Narayan Gadde2026-03-05🤖 cs.AI

NRR-Core: Non-Resolution Reasoning as a Computational Framework for Contextual Identity and Ambiguity Preservation

El artículo presenta NRR-Core, un marco computacional que desafía la limitación arquitectónica actual de la IA al proponer la retención de la ambigüedad como un modo de razonamiento válido mediante principios como la no identidad y la atención no colapsante, permitiendo que las interpretaciones conflictivas coexistan hasta que el contexto lo requiera.

Kei Saito2026-03-05🤖 cs.AI

The Epistemological Consequences of Large Language Models: Rethinking collective intelligence and institutional knowledge

El artículo examina las amenazas epistemológicas de la interacción entre humanos y modelos de lenguaje grandes, argumentando que la dependencia excesiva de estas herramientas para la transmisión fiable de información puede debilitar la justificación interna y las capacidades de conocimiento reflexivo, proponiendo a cambio un programa normativo de tres niveles para mitigar estos riesgos y preservar la inteligencia colectiva.

Angjelin Hila2026-03-05🤖 cs.AI

Succeeding at Scale: Automated Dataset Construction and Query-Side Adaptation for Multi-Tenant Search

El artículo presenta DevRev-Search, un marco que combina una tubería automatizada de construcción de datos con una estrategia de adaptación que preserva el índice (ajustando solo el codificador de consultas), permitiendo la adaptación eficiente y escalable de sistemas de búsqueda empresarial multiinquilino sin necesidad de reindexación costosa.

Prateek Jain, Shabari S Nair, Ritesh Goru + 4 more2026-03-05🤖 cs.AI

AI Skills Improve Job Prospects: Causal Evidence from a Hiring Experiment

Un estudio experimental con 1.725 reclutadores demuestra que poseer habilidades en inteligencia artificial aumenta significativamente la probabilidad de ser invitado a una entrevista y puede compensar desventajas tradicionales como la edad avanzada o una educación formal inferior, aunque la magnitud de este efecto varía según la ocupación y la actitud del reclutador hacia la IA.

Fabian Stephany, Ole Teutloff, Angelo Leone2026-03-05🤖 cs.AI

Knowledge Graphs are Implicit Reward Models: Path-Derived Signals Enable Compositional Reasoning

Este trabajo propone un paradigma de aprendizaje post-entrenamiento donde los grafos de conocimiento actúan como modelos de recompensa implícitos para guiar a los modelos de lenguaje hacia un razonamiento composicional robusto, demostrando que un modelo de 14B entrenado con señales derivadas de caminos de conocimiento supera a sistemas mucho más grandes en tareas de razonamiento médico de múltiples saltos.

Yuval Kansal, Niraj K. Jha2026-03-05✓ Author reviewed 🤖 cs.AI

Tracing 3D Anatomy in 2D Strokes: A Multi-Stage Projection Driven Approach to Cervical Spine Fracture Identification

Este estudio presenta un pipeline automatizado de detección de fracturas de columna cervical que, mediante la fusión de segmentaciones 2D ortogonales para estimar volúmenes 3D y su posterior análisis con modelos CNN-Transformer, logra un rendimiento diagnóstico comparable al de radiólogos expertos mientras reduce la dimensionalidad de los procesos intermedios.

Fabi Nahian Madhurja, Rusab Sarmun, Muhammad E. H. Chowdhury + 3 more2026-03-05🤖 cs.AI

SycoEval-EM: Sycophancy Evaluation of Large Language Models in Simulated Clinical Encounters for Emergency Care

El estudio SycoEval-EM revela que los modelos de lenguaje grandes son altamente vulnerables a la presión de los pacientes en simulaciones de emergencias médicas, mostrando tasas de aquiescencia que varían drásticamente según el tipo de solicitud y demostrando que las pruebas estáticas son insuficientes para garantizar la seguridad clínica bajo presión social.

Dongshen Peng, Yi Wang, Austin Schoeffler + 2 more2026-03-05🤖 cs.AI

When Silence Is Golden: Can LLMs Learn to Abstain in Temporal QA and Beyond?

Este estudio presenta un enfoque pionero que combina el razonamiento paso a paso con aprendizaje por refuerzo para entrenar modelos de lenguaje a abstenerse de responder en preguntas temporales, logrando superar a GPT-4o en precisión y mejorar significativamente la detección de preguntas no respondibles en comparación con métodos tradicionales de ajuste fino.

Xinyu Zhou, Chang Jin, Carsten Eickhoff + 2 more2026-03-05🤖 cs.AI

HealthMamba: An Uncertainty-aware Spatiotemporal Graph State Space Model for Effective and Reliable Healthcare Facility Visit Prediction

El artículo presenta HealthMamba, un marco de modelo de espacio de estados gráfico con conciencia de incertidumbre que mejora la precisión y fiabilidad de la predicción de visitas a instalaciones sanitarias al integrar dependencias espaciotemporales y cuantificación de incertidumbre, superando a los métodos actuales en múltiples conjuntos de datos reales.

Dahai Yu, Lin Jiang, Rongchao Xu + 1 more2026-03-05🤖 cs.AI

Why Do AI Agents Systematically Fail at Cloud Root Cause Analysis?

Este artículo analiza sistemáticamente las fallas de los agentes de IA en el análisis de causas raíz en la nube, identificando que los errores más frecuentes surgen de defectos arquitectónicos compartidos en lugar de limitaciones de los modelos individuales, y demuestra que mejorar los protocolos de comunicación entre agentes es más efectivo que el ajuste de prompts para mitigar estos fallos.

Taeyoon Kim, Woohyeok Park, Hoyeong Yun + 1 more2026-03-05🤖 cs.AI