Separable neural architectures as a primitive for unified predictive and generative intelligence

El artículo presenta las arquitecturas neuronales separables (SNA) como un primitivo unificado para la inteligencia predictiva y generativa que, al imponer sesgos inductivos estructurales para factorizar mapeos de alta dimensión, permite modelar eficazmente sistemas caóticos y secuencias discretas en dominios diversos como la navegación autónoma, la generación de microestructuras, la dinámica de fluidos y el procesamiento del lenguaje.

Reza T. Batley, Apurba Sarker, Rajib Mostakim, Andrew Klichine, Sourav Saha2026-03-13🤖 cs.LG

Examining Reasoning LLMs-as-Judges in Non-Verifiable LLM Post-Training

Este estudio demuestra que, aunque los jueces de modelos de lenguaje con capacidades de razonamiento evitan el "reward hacking" y permiten entrenar políticas alineadas con un estándar de oro, estas políticas logran dicho rendimiento aprendiendo a generar salidas adversarias que engañan a otros jueces en evaluaciones estándar.

Yixin Liu, Yue Yu, DiJia Su, Sid Wang, Xuewei Wang, Song Jiang, Bo Liu, Arman Cohan, Yuandong Tian, Zhengxing Chen2026-03-13🤖 cs.AI

SciMDR: Benchmarking and Advancing Scientific Multimodal Document Reasoning

El artículo presenta SciMDR, un marco de trabajo de síntesis y reanclaje que genera un conjunto de datos de 300.000 pares de preguntas y respuestas con cadenas de razonamiento explícitas a partir de 20.000 artículos científicos para entrenar modelos de razonamiento multimodal, logrando mejoras significativas en tareas de comprensión científica compleja.

Ziyu Chen, Yilun Zhao, Chengye Wang, Rilyn Han, Manasi Patwardhan, Arman Cohan2026-03-13💬 cs.CL

The Latent Color Subspace: Emergent Order in High-Dimensional Chaos

Este artículo presenta un método libre de entrenamiento para el modelo FLUX.1 que descubre y explota un subespacio latente de color estructurado (Hue, Saturation, Lightness) en su espacio de representación VAE, permitiendo la predicción y el control preciso de los colores en imágenes generadas mediante manipulación matemática directa.

Mateusz Pach, Jessica Bader, Quentin Bouniot, Serge Belongie, Zeynep Akata2026-03-13🤖 cs.LG

Explainability of Text Processing and Retrieval Methods: A Survey

Este artículo ofrece una amplia revisión de las investigaciones sobre la explicabilidad e interpretabilidad de los métodos de procesamiento del lenguaje natural y recuperación de información, abarcando desde representaciones de palabras y modelos de atención hasta transformadores y sistemas de clasificación de documentos, y concluye sugiriendo direcciones futuras para la investigación en este campo.

Sourav Saha, Debapriyo Majumdar, Mandar Mitra2026-03-12💬 cs.CL

An Updated Assessment of Reinforcement Learning for Macro Placement

Este estudio presenta una evaluación actualizada del enfoque de aprendizaje por refuerzo profundo de Google Brain para la colocación de macros, introduciendo nuevos benchmarks en tecnología sub-10nm, una línea base mejorada de recocido simulado y un análisis exhaustivo que revela desafíos pendientes en la escalabilidad y reproducibilidad de la metodología.

Chung-Kuan Cheng, Andrew B. Kahng, Sayak Kundu, Yucheng Wang, Zhiang Wang2026-03-12🤖 cs.LG

Mindstorms in Natural Language-Based Societies of Mind

Este trabajo presenta las Sociedades de Mente Basadas en Lenguaje Natural (NLSOMs), un marco inspirado en las teorías de Minsky y Schmidhuber donde múltiples agentes de redes neuronales colaboran mediante lenguaje natural para resolver tareas complejas de IA multimodal, al tiempo que explora las implicaciones sociales y económicas de escalar estos sistemas hacia sociedades de miles de millones de agentes.

Mingchen Zhuge, Haozhe Liu, Francesco Faccio, Dylan R. Ashley, Róbert Csordás, Anand Gopalakrishnan, Abdullah Hamdi, Hasan Abed Al Kader Hammoud, Vincent Herrmann, Kazuki Irie, Louis Kirsch, Bing Li, Guohao Li, Shuming Liu, Jinjie Mai, Piotr Pi\k{e}kos, Aditya Ramesh, Imanol Schlag, Weimin Shi, Aleksandar Stanic, Wenyi Wang, Yuhui Wang, Mengmeng Xu, Deng-Ping Fan, Bernard Ghanem, Jürgen Schmidhuber2026-03-12💬 cs.CL

Large Language Models for Travel Behavior Prediction

Este estudio demuestra que los modelos de lenguaje grandes (LLM) pueden predecir el comportamiento de viaje con una eficacia comparable a los modelos tradicionales, ya sea mediante estrategias de prompting sin entrenamiento o utilizando sus representaciones textuales para mejorar el aprendizaje supervisado en escenarios con pocos datos.

Baichuan Mo, Hanyong Xu, Ruoyun Ma, Jung-Hoon Cho, Dingyi Zhuang, Xiaotong Guo, Jinhua Zhao2026-03-12💬 cs.CL

Explainable machine learning for predicting shellfish toxicity in the Adriatic Sea using long-term monitoring data of HABs

Este estudio aplica técnicas de aprendizaje automático explicables a un conjunto de datos de 28 años en el Golfo de Trieste para predecir con precisión la toxicidad de los mejillones causada por floraciones de algas nocivas, identificando especies clave de dinoflagelados y factores ambientales como predictores fundamentales para mejorar los sistemas de alerta temprana.

Martin Marzidovšek, Janja Francé, Vid Podpečan + 3 more2026-03-12🤖 cs.AI

EoRA: Fine-tuning-free Compensation for Compressed LLM with Eigenspace Low-Rank Approximation

El artículo presenta EoRA, un método sin ajuste fino que utiliza aproximación de rango bajo en el espacio de autovalores para recuperar eficazmente la precisión de modelos de lenguaje grandes comprimidos, superando a métodos anteriores y ofreciendo una implementación optimizada en CUDA que mejora tanto la exactitud como la eficiencia en la inferencia.

Shih-Yang Liu, Maksim Khadkevich, Nai Chit Fung, Charbel Sakr, Chao-Han Huck Yang, Chien-Yi Wang, Saurav Muralidharan, Hongxu Yin, Kwang-Ting Cheng, Jan Kautz, Yu-Chiang Frank Wang, Pavlo Molchanov, Min-Hung Chen2026-03-12💬 cs.CL

Token Cleaning: Fine-Grained Data Selection for LLM Supervised Fine-Tuning

Este artículo propone un pipeline genérico de limpieza de tokens para el ajuste fino supervisado de modelos de lenguaje grandes que, al filtrar selectivamente los tokens no informativos basándose en su influencia durante la actualización del modelo, mejora el rendimiento en tareas posteriores sin sacrificar la información clave.

Jinlong Pang, Na Di, Zhaowei Zhu, Jiaheng Wei, Hao Cheng, Chen Qian, Yang Liu2026-03-12💬 cs.CL

Boosting Cross-problem Generalization in Diffusion-Based Neural Combinatorial Solver via Inference Time Adaptation

El artículo presenta DIFU-Ada, un marco de adaptación en tiempo de inferencia sin entrenamiento que permite a los solucionadores de optimización combinatoria basados en difusión lograr una generalización cero-shot entre diferentes problemas y escalas, demostrando que un modelo entrenado exclusivamente en el Problema del Viajante (TSP) puede resolver eficazmente variantes como el TSP de Recolección de Premios y el Problema de Orientación.

Haoyu Lei, Kaiwen Zhou, Yinchuan Li, Zhitang Chen, Farzan Farnia2026-03-12🤖 cs.LG

Talking like Piping and Instrumentation Diagrams (P&IDs)

Este artículo propone una metodología que integra los Diagramas de Tuberías e Instrumentación (P&ID) con Modelos de Lenguaje Grandes (LLM) mediante el uso del modelo de datos DEXPI y la generación aumentada por recuperación basada en grafos (graph-RAG), permitiendo la interacción con estos diagramas en lenguaje natural para mejorar la recuperación de información contextual y reducir las alucinaciones.

Achmad Anggawirya Alimin, Dominik P. Goldstein, Lukas Schulze Balhorn + 1 more2026-03-12🤖 cs.AI

SCAM: A Real-World Typographic Robustness Evaluation for Multimodal Foundation Models

Este artículo presenta SCAM, el conjunto de datos más grande y diverso hasta la fecha de ataques tipográficos del mundo real, para evaluar la vulnerabilidad de los modelos fundacionales multimodales y demostrar que, aunque los ataques tipográficos degradan significativamente su rendimiento, el uso de modelos de lenguaje más grandes reduce esta susceptibilidad.

Justus Westerhoff, Erblina Purelku, Jakob Hackstein + 4 more2026-03-12🤖 cs.AI