StructSAM: Structure- and Spectrum-Preserving Token Merging for Segment Anything Models

El artículo presenta StructSAM, un marco de fusión y recuperación de tokens que preserva la estructura y el espectro para optimizar los modelos Segment Anything (SAM) mediante la reducción de costos computacionales sin sacrificar significativamente la precisión en la segmentación de bordes.

Duy M. H. Nguyen, Tuan A. Tran, Duong Nguyen, Siwei Xie, Trung Q. Nguyen, Mai T. N. Truong, Daniel Palenicek, An T. Le, Michael Barz, TrungTin Nguyen, Tuan Dam, Ngan Le, Minh Vu, Khoa Doan, Vien Ngo, Pengtao Xie, James Zou, Daniel Sonntag, Jan Peters, Mathias Niepert2026-03-10🤖 cs.LG

Norm-Hierarchy Transitions in Representation Learning: When and Why Neural Networks Abandon Shortcuts

El marco de Transición de Jerarquía de Normas (NHT) explica que el aprendizaje tardío de representaciones estructuradas y el fenómeno de "grokking" en redes neuronales surgen de la lenta traversía, impulsada por la regularización, desde soluciones de alto nivel basadas en atajos hacia representaciones de menor nivel, donde el retraso en esta transición crece logarítmicamente con la relación entre las normas de los atajos y las estructuras.

Truong Xuan Khanh, Truong Quynh Hoa2026-03-10🤖 cs.LG

Explainable and Hardware-Efficient Jamming Detection for 5G Networks Using the Convolutional Tsetlin Machine

Este artículo presenta un método de detección de interferencias para redes 5G basado en la Máquina Tsetlin Convolucional (CTM) que, al operar directamente sobre señales de sincronización, ofrece una solución interpretable y eficiente en hardware con un entrenamiento 9,5 veces más rápido y un uso de memoria 14 veces menor que las redes neuronales convolucionales, validada experimentalmente en un entorno de prueba real y proyectada para su implementación en FPGAs.

Vojtech Halenka, Mohammadreza Amini, Per-Arne Andersen, Ole-Christoffer Granmo, Burak Kantarci2026-03-10🤖 cs.LG

Learning Concept Bottleneck Models from Mechanistic Explanations

Este artículo presenta el Mecanismo de Conceptos (M-CBM), un nuevo enfoque para Modelos de Cuello de Botella Conceptual que extrae y nombra conceptos directamente de un modelo de caja negra mediante Autoencoders Dispersos y LLMs multimodales, logrando así un rendimiento superior y explicaciones más concisas que los métodos anteriores al controlar rigurosamente la fuga de información.

Antonio De Santis, Schrasing Tong, Marco Brambilla, Lalana Kagal2026-03-10🤖 cs.LG

Learning Clinical Representations Under Systematic Distribution Shift

Este trabajo propone un marco de aprendizaje de representaciones invariantes a la práctica clínica que, al combinar la minimización de riesgo supervisada con regularización adversaria y penalizaciones de riesgo invariante, mejora significativamente el rendimiento y la calibración de los modelos predictivos multimodales ante cambios sistemáticos en la distribución de los datos entre diferentes instituciones.

Yuanyun Zhang, Shi Li2026-03-10🤖 cs.LG

AgrI Challenge: A Data-Centric AI Competition for Cross-Team Validation in Agricultural Vision

El AgrI Challenge es una competencia centrada en los datos que introduce el paradigma de Validación Inter-Equipos (CTV) para demostrar que el entrenamiento colaborativo con conjuntos de datos heterogéneos recolectados independientemente mejora significativamente la generalización de los modelos de visión agrícola frente a los cambios de distribución, superando las limitaciones de los enfoques tradicionales basados en un solo origen de datos.

Mohammed Brahimi, Karim Laabassi, Mohamed Seghir Hadj Ameur, Aicha Boutorh, Badia Siab-Farsi, Amin Khouani, Omar Farouk Zouak, Seif Eddine Bouziane, Kheira Lakhdari, Abdelkader Nabil Benghanem2026-03-10🤖 cs.LG

Latent Generative Models with Tunable Complexity for Compressed Sensing and other Inverse Problems

Este trabajo propone el uso de priores generativos con complejidad ajustable mediante *nested dropout* para resolver problemas inversos como la compresión sensorial, demostrando empíricamente que superan a los modelos de complejidad fija al reducir errores de reconstrucción y ofreciendo un análisis teórico sobre la sintonización óptima frente al ruido.

Sean Gunn, Jorio Cocola, Oliver De Candido, Vaggos Chatziafratis, Paul Hand2026-03-10🤖 cs.LG

Scaling Laws in the Tiny Regime: How Small Models Change Their Mistakes

Este estudio revela que en el régimen de modelos pequeños (menos de 20 millones de parámetros), las leyes de escalado siguen una potencia más pronunciada que en modelos grandes, pero con una estructura de errores distinta, saturación temprana y una calibración mejor en los tamaños más reducidos, lo que demuestra que la validación debe realizarse específicamente en el tamaño objetivo para despliegues en dispositivos de borde.

Mohammed Alnemari, Rizwan Qureshi, Nader Begrazadah2026-03-10🤖 cs.LG

Learning to Reflect: Hierarchical Multi-Agent Reinforcement Learning for CSI-Free mmWave Beam-Focusing

Este artículo propone un marco de Aprendizaje por Refuerzo Multiagente Jerárquico (HMARL) para el enfoque de haces en sistemas mmWave que elimina la sobrecarga de estimación del estado del canal (CSI) al utilizar datos de localización de usuarios, logrando mejoras significativas en la intensidad de la señal recibida y una escalabilidad robusta mediante una arquitectura de entrenamiento centralizado y ejecución descentralizada.

Hieu Le, Oguz Bedir, Mostafa Ibrahim, Jian Tao, Sabit Ekin2026-03-10🤖 cs.LG

Domain-Specific Quality Estimation for Machine Translation in Low-Resource Scenarios

Este artículo propone un marco de estimación de calidad para traducción automática en escenarios de bajos recursos y dominios específicos (como salud y legal) en idiomas indios, demostrando que la adaptación de capas intermedias de modelos de lenguaje grandes mediante técnicas como ALOPE y LoRMA supera a los enfoques basados únicamente en prompts, especialmente en modelos de pesos abiertos.

Namrata Patil Gurav, Akashdeep Ranu, Archchana Sindhujan, Diptesh Kanojia2026-03-10🤖 cs.LG