Coarse-Guided Visual Generation via Weighted h-Transform Sampling

Este artículo presenta un método de generación visual sin entrenamiento que utiliza la transformada h y un cronograma de ponderación sensible al nivel de ruido para guiar eficazmente la síntesis de imágenes y videos de alta fidelidad a partir de referencias degradadas, superando las limitaciones de los enfoques anteriores que requieren conocer el operador de transformación o sufren de altos costos de entrenamiento.

Yanghao Wang, Ziqi Jiang, Zhen Wang, Long Chen2026-03-13🤖 cs.AI

Chemical Reaction Networks Learn Better than Spiking Neural Networks

Este artículo demuestra matemáticamente y mediante experimentos numéricos que las redes de reacciones químicas sin capas ocultas pueden aprender tareas de clasificación más eficiente y con mayor precisión que las redes neuronales de spiking que requieren capas ocultas, ofreciendo una explicación teórica sobre la posible superioridad del aprendizaje en redes bioquímicas celulares frente a las neuronales.

Sophie Jaffard, Ivo F. Sbalzarini2026-03-13📊 stat

Paper Title: LoV3D: Grounding Cognitive Prognosis Reasoning in Longitudinal 3D Brain MRI via Regional Volume Assessments

El artículo presenta LoV3D, un pipeline de modelos de lenguaje-visión 3D que mejora el diagnóstico de enfermedades neurodegenerativas mediante la integración de evaluaciones volumétricas regionales longitudinales y un verificador clínico ponderado, logrando una alta precisión diagnóstica y generalización sin necesidad de anotaciones humanas.

Zhaoyang Jiang, Zhizhong Fu, David McAllister, Yunsoo Kim, Honghan Wu2026-03-13🤖 cs.AI

A Multi-Label Temporal Convolutional Framework for Transcription Factor Binding Characterization

Este artículo presenta un marco de aprendizaje profundo basado en redes convolucionales temporales que aborda la predicción de sitios de unión de factores de transcripción como un problema de clasificación multietiqueta, logrando capturar correlaciones y mecanismos cooperativos entre múltiples factores para revelar patrones de unión biológicamente significativos y nuevas relaciones.

Pietro Demurtas, Ferdinando Zanchetta, Giovanni Perini, Rita Fioresi2026-03-13🧬 q-bio

Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

Este trabajo propone un pipeline de búsqueda de arquitecturas neuronales (NAS) eficiente en recursos que utiliza modelos de lenguaje grandes (LLM) en un bucle cerrado con memoria de retroalimentación histórica para iterativamente generar y refinar arquitecturas de redes convolucionales en una sola GPU de consumo, logrando mejoras significativas en precisión sin necesidad de fine-tuning ni infraestructura en la nube.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte2026-03-13🤖 cs.LG

A Robust and Efficient Multi-Agent Reinforcement Learning Framework for Traffic Signal Control

Este artículo presenta un marco robusto y eficiente de Aprendizaje por Refuerzo Multiagente para el control de semáforos que, mediante la aleatorización de ratios de giro, un espacio de acción de ajuste exponencial y observaciones basadas en vecinos, supera a las bases de referencia existentes reduciendo el tiempo de espera promedio en más del 10% y mejorando la generalización en escenarios de tráfico dinámicos.

Sheng-You Huang, Hsiao-Chuan Chang, Yen-Chi Chen, Ting-Han Wei, I-Hau Yeh, Sheng-Yao Kuan, Chien-Yao Wang, Hsuan-Han Lee, I-Chen Wu2026-03-13🤖 cs.AI

On Information Self-Locking in Reinforcement Learning for Active Reasoning of LLM agents

Este artículo identifica el fenómeno de "auto-bloqueo de información" en agentes de LLM que utilizan aprendizaje por refuerzo para el razonamiento activo, donde la exploración deficiente crea un ciclo vicioso que impide la adquisición de conocimiento, y propone una solución efectiva que inyecta críticas direccionales para mitigar este problema y lograr mejoras significativas en el rendimiento.

Deyu Zou, Yongqiang Chen, Fan Feng, Mufei Li, Pan Li, Yu Gong, James Cheng2026-03-13🤖 cs.AI

SommBench: Assessing Sommelier Expertise of Language Models

El artículo presenta SommBench, un nuevo benchmark multilingüe diseñado para evaluar la capacidad de los modelos de lenguaje para emular el juicio sensorial experto de un sommelier mediante tareas de teoría del vino, completado de características y maridaje, revelando que, aunque los modelos destacan en teoría, aún enfrentan dificultades significativas en la predicción de características y el maridaje de alimentos y vinos.

William Brach, Tomas Bedej, Jacob Nielsen, Jacob Pichna, Juraj Bedej, Eemeli Saarensilta, Julie Dupouy, Gianluca Barmina, Andrea Blasi Núñez, Peter Schneider-Kamp, Kristian Koštál, Michal Ries, Lukas Galke Poech2026-03-13💬 cs.CL

Increasing intelligence in AI agents can worsen collective outcomes

El estudio demuestra que, en escenarios de recursos escasos, el aumento de la inteligencia y la diversidad de los agentes de IA puede empeorar los resultados colectivos al generar sobrecarga sistémica, mientras que la formación de tribus mitiga este riesgo, indicando que el impacto de la sofisticación de la IA depende enteramente de la relación entre la capacidad disponible y el tamaño de la población.

Neil F. Johnson2026-03-13💰 q-fin

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Este artículo presenta el "IsoCompute Playbook", un marco que optimiza la asignación de recursos computacionales para el aprendizaje por refuerzo de modelos de lenguaje grandes, demostrando que aumentar el número de rodajes paralelos por problema mejora la eficiencia de manera predecible y adaptándose a la dificultad del problema.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG

A Quantitative Characterization of Forgetting in Post-Training

Este trabajo proporciona una caracterización cuantitativa del olvido en el entrenamiento continuo de modelos generativos, demostrando teóricamente que los objetivos de divergencia KL inversa evitan el colapso de la masa de tareas anteriores y limitan el desplazamiento de componentes mediante la superposición de distribuciones, a diferencia de la KL directa que conduce al olvido masivo.

Krishnakumar Balasubramanian, Shiva Prasad Kasiviswanathan2026-03-13📊 stat