ContextBench: Modifying Contexts for Targeted Latent Activation

El artículo presenta ContextBench, un marco de evaluación para la modificación de contextos que busca generar entradas lingüísticamente fluidas que activen características latentes específicas en modelos de lenguaje, demostrando que variantes mejoradas de la optimización de prompts evolutiva logran el mejor equilibrio entre eficacia de activación y fluidez.

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac BloomMon, 09 Ma🤖 cs.AI

Iterative Quantum Feature Maps

El artículo presenta los Mapas de Características Cuánticas Iterativos (IQFMs), un marco híbrido cuántico-clásico que construye arquitecturas profundas conectando mapas de características cuánticos superficiales mediante pesos de aumento clásicos y aprendizaje contrastivo, logrando así un rendimiento superior en hardware ruidoso sin necesidad de optimizar parámetros cuánticos variacionales.

Nasa Matsumoto, Quoc Hoan Tran, Koki Chinzei, Yasuhiro Endo, Hirotaka OshimaMon, 09 Ma⚛️ quant-ph

Learning the action for long-time-step simulations of molecular dynamics

Los autores proponen un método de aprendizaje automático que, al aprender el acción mecánica del sistema mediante mapas que preservan la estructura (simpécticos y reversibles en el tiempo), permite realizar simulaciones de dinámica molecular con pasos de tiempo largos sin los artefactos energéticos típicos de los predictores no estructurales.

Filippo Bigi, Johannes Spies, Michele CeriottiMon, 09 Ma🔬 cond-mat.mtrl-sci

Spectral/Spatial Tensor Atomic Cluster Expansion with Universal Embeddings in Cartesian Space

Este artículo presenta la Expansión Atómica de Tensores (TACE), un modelo de aprendizaje automático que unifica la representación escalar y tensorial en el espacio cartesiano mediante tensores cartesianos irreducibles, eliminando la complejidad de los acoplamientos de momento angular y permitiendo el aprendizaje eficiente y universal de propiedades invariantes y equivariantes en diversos sistemas atómicos.

Zemin Xu, Wenbo Xie, P. HuMon, 09 Ma🔬 cond-mat.mtrl-sci

Self-Speculative Masked Diffusions

El artículo presenta las "Self-Speculative Masked Diffusions", un nuevo modelo de difusión enmascarada para datos discretos que reduce a la mitad las evaluaciones de red neuronal necesarias para generar muestras de alta calidad en tareas como modelado de texto y secuencias de proteínas, mediante la implementación de un mecanismo de muestreo especulativo integrado que permite predicciones no factorizadas en una sola pasada.

Andrew Campbell, Valentin De Bortoli, Jiaxin Shi, Arnaud DoucetMon, 09 Ma🤖 cs.LG

Escaping Model Collapse via Synthetic Data Verification: Near-term Improvements and Long-term Convergence

Este artículo demuestra teórica y empíricamente que inyectar información mediante un verificador externo de datos sintéticos (humano o modelo superior) previene el colapso del modelo durante el reentrenamiento iterativo, logrando mejoras a corto plazo que convergen a largo plazo hacia el "centro de conocimiento" del verificador.

Bingji Yi, Qiyuan Liu, Yuwei Cheng, Haifeng XuMon, 09 Ma🤖 cs.LG

DAISI: Data Assimilation with Inverse Sampling using Stochastic Interpolants

El artículo presenta DAISI, un algoritmo de filtrado escalable basado en modelos generativos que supera las limitaciones de los métodos clásicos de asimilación de datos al utilizar un prior generativo preentrenado combinado con pasos de muestreo inverso y guiado para manejar dinámicas complejas y observaciones no lineales sin necesidad de reentrenamiento.

Martin Andrae, Erik Larsson, So Takao, Tomas Landelius, Fredrik LindstenMon, 09 Ma🤖 cs.LG

Data-Driven Global Sensitivity Analysis for Engineering Design Based on Individual Conditional Expectations

Este artículo propone un nuevo método de análisis de sensibilidad global basado en las curvas de Expectación Condicional Individual (ICE) para superar las limitaciones de los Gráficos de Dependencia Parcial (PDP) en la presencia de interacciones fuertes, demostrando mediante pruebas matemáticas y casos de estudio en ingeniería que esta aproximación ofrece una visión más rica y precisa de la importancia de las características en modelos de aprendizaje automático.

Pramudita Satria Palar, Paul Saves, Rommel G. Regis, Koji Shimoyama, Shigeru Obayashi, Nicolas Verstaevel, Joseph MorlierMon, 09 Ma🤖 cs.AI

Behavior-dLDS: A decomposed linear dynamical systems model for neural activity partially constrained by behavior

El artículo presenta behavior-dLDS, un modelo de sistemas dinámicos lineales descompuestos que permite disociar las dinámicas neuronales relacionadas con el comportamiento de las computaciones internas en grandes poblaciones de neuronas, demostrando su eficacia tanto en datos simulados como en grabaciones a gran escala de un pez cebra.

Eva Yezerets, En Yang, Misha B. Ahrens, Adam S. CharlesMon, 09 Ma🤖 cs.LG

Agnostic learning in (almost) optimal time via Gaussian surface area

Este trabajo mejora el análisis de Klivans et al. demostrando que un grado de polinomio de O~(Γ2/ε2)\tilde O(\Gamma^2 / \varepsilon^2) es suficiente para la aproximación L1L_1 bajo distribuciones gaussianas, lo que proporciona límites (casi) óptimos para el aprendizaje agnóstico de funciones umbral polinómicas en el modelo de consultas estadísticas.

Lucas Pesenti, Lucas Slot, Manuel WiedmerMon, 09 Ma🤖 cs.LG