Verifying Good Regulator Conditions for Hypergraph Observers: Natural Gradient Learning from Causal Invariance via Established Theorems

Este artículo verifica que los observadores persistentes en sustratos de hipergrafos causalmente invariantes satisfacen el Teorema del Buen Regulador de Conant-Ashby, demostrando que el descenso de gradiente natural es su regla de aprendizaje única y derivando un umbral cuántico-clásico específico para el parámetro de régimen en el marco de Vanchurin, aunque esta predicción depende fuertemente del modelo de convergencia elegido.

Max Zhuravlev2026-03-11🤖 cs.LG

PPO-Based Hybrid Optimization for RIS-Assisted Semantic Vehicular Edge Computing

Este artículo propone un marco de computación en el borde vehicular semántico asistido por superficies inteligentes reconfigurables (RIS) que utiliza un esquema híbrido de optimización basado en PPO y programación lineal para reducir significativamente la latencia en entornos dinámicos, superando a métodos existentes como los algoritmos genéticos y QPSO.

Wei Feng, Jingbo Zhang, Qiong Wu, Pingyi Fan, Qiang Fan2026-03-11🤖 cs.LG

Not All News Is Equal: Topic- and Event-Conditional Sentiment from Finetuned LLMs for Aluminum Price Forecasting

Este estudio demuestra que integrar puntuaciones de sentimiento derivadas de noticias en inglés y chino mediante un modelo LLM Qwen3 finetuneado mejora significativamente la precisión de las predicciones de precios del aluminio y la utilidad económica en mercados volátiles en comparación con los modelos tradicionales que solo utilizan datos tabulares.

Alvaro Paredes Amorin, Andre Python, Christoph Weisser2026-03-11🤖 cs.AI

Probabilistic Hysteresis Factor Prediction for Electric Vehicle Batteries with Graphite Anodes Containing Silicon

Este trabajo presenta un enfoque basado en datos para la predicción probabilística del factor de histéresis en baterías de vehículos eléctricos con ánodos de silicio-grafito, utilizando un marco de armonización de datos y modelos de aprendizaje profundo para mejorar la estimación del estado de carga considerando la incertidumbre y la eficiencia computacional.

Runyao Yu, Viviana Kleine, Philipp Gromotka, Thomas Rudolf, Adrian Eisenmann, Gautham Ram Chandra Mouli, Peter Palensky, Jochen L. Cremer2026-03-11🤖 cs.LG

Decoupling Reasoning and Confidence: Resurrecting Calibration in Reinforcement Learning from Verifiable Rewards

El artículo propone DCPO, un marco que desacopla los objetivos de razonamiento y calibración para resolver el conflicto de gradientes que causa una sobreconfianza excesiva en los modelos de lenguaje entrenados con recompensas verificables, logrando así preservar la precisión mientras mejora significativamente la fiabilidad de las predicciones.

Zhengzhao Ma, Xueru Wen, Boxi Cao, Yaojie Lu, Hongyu Lin, Jinglin Yang, Min He, Xianpei Han, Le Sun2026-03-11🤖 cs.LG

Wrong Code, Right Structure: Learning Netlist Representations from Imperfect LLM-Generated RTL

Este trabajo propone un marco de aprendizaje efectivo para representaciones de netlistas que supera la escasez de datos etiquetados al utilizar RTL imperfecto generado por modelos de lenguaje grande, demostrando que sus patrones estructurales preservados permiten entrenar modelos que generalizan bien a diseños reales y superan a los métodos existentes.

Siyang Cai, Cangyuan Li, Yinhe Han, Ying Wang2026-03-11🤖 cs.AI

Differentiable Stochastic Traffic Dynamics: Physics-Informed Generative Modelling in Transportation

Este trabajo propone un marco de modelado generativo informado por la física que, partiendo de una dinámica de flujo de tráfico estocástica tipo Ito, deriva una ecuación determinista de flujo de probabilidad para entrenar una red neuronal capaz de estimar distribuciones completas del estado del tráfico, permitiendo así calcular estimaciones puntuales, intervalos de credibilidad y medidas de riesgo de congestión.

Wuping Xin2026-03-11🤖 cs.AI

Latent-DARM: Bridging Discrete Diffusion And Autoregressive Models For Reasoning

El artículo presenta Latent-DARM, un marco de comunicación en espacio latente que integra modelos de difusión discreta para la planificación y modelos autoregresivos para la ejecución, logrando un rendimiento superior en tareas de razonamiento con un uso de tokens significativamente menor que los modelos de razonamiento más avanzados.

Lina Berrayana, Ahmed Heakl, Abdullah Sohail, Thomas Hofmann, Salman Khan, Wei Chen2026-03-11🤖 cs.AI

The Reasoning Trap -- Logical Reasoning as a Mechanistic Pathway to Situational Awareness

El artículo "The Reasoning Trap" advierte que las mejoras en el razonamiento lógico de los modelos de lenguaje podrían desencadenar inadvertidamente una conciencia situacional peligrosa mediante mecanismos de inferencia deductiva, reconocimiento inductivo y modelado abductivo, proponiendo a su vez nuevos marcos de seguridad para mitigar este riesgo.

Subramanyam Sahoo, Aman Chadha, Vinija Jain, Divya Chaudhary2026-03-11🤖 cs.AI