Reverse Distillation: Consistently Scaling Protein Language Model Representations

Este artículo presenta "Reverse Distillation", un marco que descompone las representaciones de grandes modelos de lenguaje de proteínas en subespacios ortogonales guiados por modelos más pequeños, creando incrustaciones anidadas que aseguran que los modelos más grandes superen consistentemente a los más pequeños en tareas de proteínas.

Darius Catrina, Christian Bepler, Samuel Sledzieski, Rohit Singh2026-03-10🤖 cs.LG

A Lightweight MPC Bidding Framework for Brand Auction Ads

Este artículo propone un marco ligero de Control Predictivo de Modelos (MPC) para anuncios de marca en subastas, que utiliza regresión isotonía en línea para construir modelos de oferta directos a partir de datos en tiempo real, logrando así una mayor eficiencia en el gasto y un control de costos superior a las estrategias convencionales sin necesidad de modelos complejos de aprendizaje automático.

Yuanlong Chen, Bowen Zhu, Bing Xia, Yichuan Wang2026-03-10🤖 cs.LG

Hide and Find: A Distributed Adversarial Attack on Federated Graph Learning

El artículo propone FedShift, un nuevo ataque adversarial distribuido de dos etapas ("esconder y encontrar") para el aprendizaje federado de grafos que logra una alta efectividad y sigilo al inyectar un "desplazador" oculto durante el entrenamiento y luego optimizar perturbaciones basadas en el modelo global, superando a los métodos existentes en rendimiento, evasión de defensas y eficiencia computacional.

Jinshan Liu, Ken Li, Jiazhe Wei, Bin Shi, Bo Dong2026-03-10🤖 cs.LG

Breaking Training Bottlenecks: Effective and Stable Reinforcement Learning for Coding Models

El artículo presenta MicroCoder-GRPO, un enfoque optimizado de RL con innovaciones como enmascaramiento de truncamiento condicional y selección de temperatura basada en diversidad, junto con un nuevo corpus de entrenamiento y un evaluador más preciso, logrando mejoras significativas en modelos de generación de código y revelando 34 hallazgos clave para superar los cuellos de botella en el entrenamiento.

Zongqian Li, Shaohan Huang, Zewen Chi, Yixuan Su, Lexin Zhou, Li Dong, Nigel Collier, Furu Wei2026-03-10🤖 cs.LG

Lindbladian Learning with Neural Differential Equations

Este artículo presenta un método de aprendizaje basado en ecuaciones diferenciales neuronales y máxima verosimilitud que infiere con robustez los generadores dinámicos de sistemas cuánticos abiertos de hasta seis qubits a partir de datos de mediciones transitorias, superando los desafíos de la no convexidad y el ruido en diversos modelos físicos.

Timothy Heightman, Roman Aseguinolaza Gallo, Edward Jiang, JRM Saavedra, Antonio Acín, Marcin Płodzien2026-03-10⚛️ quant-ph

Scaling Data Difficulty: Improving Coding Models via Reinforcement Learning on Fresh and Challenging Problems

El artículo presenta MicroCoder, un conjunto de datos de programación competitiva curado mediante un marco de procesamiento de cuatro etapas y filtrado automático de dificultad, que demuestra mejoras significativas en el rendimiento de modelos de código al entrenarse con problemas frescos y desafiantes.

Zongqian Li, Tengchao Lv, Shaohan Huang, Yixuan Su, Qinzheng Sun, Qiufeng Yin, Ying Xin, Scarlett Li, Lei Cui, Nigel Collier, Furu Wei2026-03-10🤖 cs.LG

Vision Transformers that Never Stop Learning

Este trabajo investiga la pérdida de plasticidad en Vision Transformers (ViTs), identifica que los módulos de atención y redes feed-forward son particularmente vulnerables, y propone ARROW, un optimizador geométrico que preserva la plasticidad mediante la adaptación de las direcciones del gradiente, demostrando ser más efectivo que los métodos de re-inicialización para el aprendizaje continuo.

Caihao Sun, Mingqi Yuan, Shiyuan Wang, Jiayu Chen2026-03-10🤖 cs.LG

Toward Global Intent Inference for Human Motion by Inverse Reinforcement Learning

Este artículo demuestra que es posible predecir con alta precisión los movimientos de alcance humanos mediante una única función de costo agnóstica al sujeto y a la postura, utilizando el algoritmo MO-IRL para inferir pesos temporales variables que revelan un principio de optimalidad unificado dominado por la regulación de la aceleración articular.

Sarmad Mehrdad, Maxime Sabbah, Vincent Bonnet, Ludovic Righetti2026-03-10🤖 cs.LG

Learning embeddings of non-linear PDEs: the Burgers' equation

Este trabajo presenta un método que generaliza los embeddings a las redes neuronales informadas por física para construir espacios de incrustación de soluciones de ecuaciones diferenciales parciales no lineales, como la ecuación de Burgers viscosa, mediante un diseño de múltiples cabezales con restricciones de ortogonalidad que permiten una descomposición robusta e interpretable del espacio latente.

Pedro Tarancón-Álvarez, Leonid Sarieddine, Pavlos Protopapas, Raul Jimenez2026-03-10🤖 cs.LG

Fusion Complexity Inversion: Why Simpler Cross View Modules Outperform SSMs and Cross View Attention Transformers for Pasture Biomass Regression

Este estudio demuestra que, para la estimación de biomasa de pastizales con datos escasos, la calidad del modelo base preentrenado y el uso de módulos de fusión locales y simples (como convoluciones) superan significativamente a arquitecturas complejas como los transformadores de atención cruzada o los SSMs, estableciendo un principio de "inversión de complejidad de fusión" que prioriza la simplicidad sobre la sofisticación en benchmarks agrícolas.

Mridankan Mandal2026-03-10🤖 cs.LG

Transferable Optimization Network for Cross-Domain Image Reconstruction

Este artículo presenta un marco de aprendizaje transferible basado en optimización bi-nivel que combina un extractor de características universal entrenado con datos heterogéneos y un adaptador específico del dominio para lograr una reconstrucción de alta calidad de imágenes de resonancia magnética submuestreadas, incluso cuando se dispone de datos de entrenamiento limitados.

Yunmei Chen, Chi Ding, Xiaojing Ye2026-03-10🤖 cs.LG

Gradient Iterated Temporal-Difference Learning

Este trabajo presenta el aprendizaje iterado de diferencias temporales con gradiente (Gradient Iterated TD), un nuevo algoritmo que modifica el enfoque iterado para calcular gradientes sobre objetivos móviles, logrando por primera vez una velocidad de aprendizaje competitiva con los métodos semigradientes en tareas complejas como los juegos de Atari mientras mantiene la estabilidad de los métodos basados en gradiente.

Théo Vincent, Kevin Gerhardt, Yogesh Tripathi, Habib Maraqten, Adam White, Martha White, Jan Peters, Carlo D'Eramo2026-03-10🤖 cs.LG

Viewpoint-Agnostic Grasp Pipeline using VLM and Partial Observations

Este artículo presenta un pipeline de agarre guiado por lenguaje para manipuladores móviles que combina detección de objetos, completado de nubes de puntos y filtrado de colisiones para lograr una ejecución robusta en entornos desordenados con observaciones parciales, logrando un 90% de éxito en pruebas reales frente al 30% de un método dependiente de la vista.

Dilermando Almeida, Juliano Negri, Guilherme Lazzarini, Thiago H. Segreto, Ranulfo Bezerra, Ricardo V. Godoy, Marcelo Becker2026-03-10🤖 cs.LG