EDINET-Bench: Evaluating LLMs on Complex Financial Tasks using Japanese Financial Statements

El artículo presenta EDINET-Bench, un nuevo benchmark de código abierto basado en informes financieros japoneses que revela que, a pesar de sus avances en otros campos, los modelos de lenguaje actuales apenas superan a métodos estadísticos simples en tareas financieras complejas, lo que subraya la necesidad de marcos de evaluación más sofisticados que simulen el entorno profesional real.

Issa Sugiura, Takashi Ishida, Taro Makino + 4 more2026-03-06💻 cs

FedEMA-Distill: Exponential Moving Average Guided Knowledge Distillation for Robust Federated Learning

El artículo propone FedEMA-Distill, un método de aprendizaje federado que combina un promedio móvil exponencial del modelo global con la destilación de conocimiento basada en logits para lograr un entrenamiento más robusto, eficiente en comunicación y resistente a ataques adversarios sin requerir cambios en el software de los clientes.

Hamza Reguieg, Mohamed El Kamili, Essaid Sabir2026-03-06💻 cs

Capability Thresholds and Manufacturing Topology: How Embodied Intelligence Triggers Phase Transitions in Economic Geography

Este paper establece la Economía de la Inteligencia Encarnada, argumentando que cuando las capacidades de la IA física superan umbrales críticos de destreza y fiabilidad, provocan una transición de fase que reorganiza la geografía económica de la manufactura, desplazando las fábricas de los centros de mano de obra hacia ubicaciones optimizadas para máquinas y permitiendo una producción descentralizada cerca de la demanda.

Xinmin Fang, Lingfeng Tao, Zhengxiong Li2026-03-06🔬 physics

Improved accuracy of continuum surface flux models for metal additive manufacturing melt pool simulations

Este trabajo propone un enfoque de flujo superficial continuo (CSF) escalado por parámetros que mejora significativamente la precisión y reduce los costos computacionales en la simulación de la piscina de fusión en la fabricación aditiva de metales, al mitigar los errores inherentes a los métodos CSF clásicos causados por gradientes de temperatura extremos y grandes diferencias en las propiedades de los materiales.

Nils Much, Magdalena Schreter-Fleischhacker, Peter Munch + 3 more2026-03-05💻 cs

Sentiment-Aware Stock Price Prediction with Transformer and LLM-Generated Formulaic Alpha

Este artículo presenta un marco innovador que integra un modelo de lenguaje grande (LLM) para generar alfas formulaicas basadas en sentimiento y datos históricos, las cuales, al ser utilizadas como características de entrada en modelos predictivos como Transformers, mejoran significativamente la precisión y la interpretabilidad de las predicciones de precios de acciones.

Qizhao Chen, Hiroaki Kawashima2026-03-05💻 cs

Adaptive Alpha Weighting with PPO: Enhancing Prompt-Based LLM-Generated Alphas in Quant Trading

Este artículo presenta un marco de aprendizaje por refuerzo que utiliza Proximal Policy Optimization (PPO) para optimizar dinámicamente los pesos de alfas generados por modelos de lenguaje grande, logrando una mayor estabilidad en el rendimiento ajustado al riesgo y una reducción de las pérdidas máximas en comparación con estrategias tradicionales de trading.

Qizhao Chen, Hiroaki Kawashima2026-03-05💻 cs

SpecBridge: Bridging Mass Spectrometry and Molecular Representations via Cross-Modal Alignment

SpecBridge es un marco de alineación implícita que mejora significativamente la identificación de moléculas pequeñas a partir de espectrometría de masas al ajustar un codificador espectral sobre un modelo fundacional molecular congelado, logrando una mayor precisión de recuperación con menos parámetros entrenables que los enfoques existentes.

Yinkai Wang, Yan Zhou Chen, Xiaohui Chen + 2 more2026-03-05🤖 cs.LG

MOOSE-Star: Unlocking Tractable Training for Scientific Discovery by Breaking the Complexity Barrier

El artículo presenta MOOSE-Star, un marco unificado que supera la complejidad computacional inherente al entrenamiento directo de modelos de lenguaje para el descubrimiento científico mediante la descomposición de tareas, la búsqueda jerárquica guiada por motivación y la composición acotada, logrando así una reducción de la complejidad de exponencial a logarítmica y un escalado continuo en tiempo de prueba respaldado por el dataset TOMATO-Star.

Zonglin Yang, Lidong Bing2026-03-05🤖 cs.LG