ContextBench: Modifying Contexts for Targeted Latent Activation

O artigo apresenta o ContextBench, um benchmark que avalia métodos de modificação de contexto para ativar características latentes específicas em modelos de linguagem, demonstrando que variantes aprimoradas do EPO alcançam o estado da arte ao equilibrar eficazmente a força de elicitação e a fluência linguística.

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac BloomMon, 09 Ma🤖 cs.AI

Iterative Quantum Feature Maps

O artigo propõe os Mapas de Recursos Quânticos Iterativos (IQFMs), um framework híbrido que combina mapas de recursos quânticos rasos com pesos de aumento clássicos e aprendizado contrastivo para criar arquiteturas profundas que superam redes neurais quânticas convolucionais em tarefas ruidosas e evitam a otimização de parâmetros variacionais, oferecendo uma solução promissora para as limitações de hardware atual.

Nasa Matsumoto, Quoc Hoan Tran, Koki Chinzei, Yasuhiro Endo, Hirotaka OshimaMon, 09 Ma⚛️ quant-ph

Learning the action for long-time-step simulations of molecular dynamics

Este artigo propõe o uso de mapas de aprendizado de máquina que preservam a estrutura física (simples e reversíveis no tempo) para simulações de dinâmica molecular com grandes passos de tempo, demonstrando que esse método equivale a aprender a ação mecânica do sistema e elimina problemas como a não conservação de energia, permitindo transferências entre diferentes condições termodinâmicas e composições químicas.

Filippo Bigi, Johannes Spies, Michele CeriottiMon, 09 Ma🔬 cond-mat.mtrl-sci

Kernel VICReg for Self-Supervised Learning in Reproducing Kernel Hilbert Space

O artigo propõe o Kernel VICReg, um novo framework de aprendizado auto-supervisionado que leva o objetivo VICReg para um Espaço de Hilbert de Reprodutor de Kernel (RKHS) para capturar dependências não lineares e melhorar a representação de dados sem rótulos, demonstrando ganhos consistentes sobre métodos euclidianos em diversos conjuntos de dados.

M. Hadi Sepanj, Benyamin Ghojogh, Saed Moradi, Paul FieguthMon, 09 Ma🤖 cs.LG

Spectral/Spatial Tensor Atomic Cluster Expansion with Universal Embeddings in Cartesian Space

O artigo apresenta a Expansão Atômica de Cluster Tensorial (TACE), um modelo de aprendizado de máquina unificado que utiliza tensores cartesianos irreduzíveis para representar de forma eficiente e universal tanto propriedades invariantes quanto equivariantes em sistemas moleculares e materiais, superando as limitações de complexidade dos métodos baseados em tensores esféricos.

Zemin Xu, Wenbo Xie, P. HuMon, 09 Ma🔬 cond-mat.mtrl-sci

Self-Speculative Masked Diffusions

O artigo apresenta as "Self-Speculative Masked Diffusions", um novo modelo de difusão mascarada para dados discretos que utiliza amostragem especulativa integrada ao modelo para gerar previsões não fatorizadas em uma única passagem, reduzindo em cerca de duas vezes o número de avaliações de rede neural necessárias para a geração de amostras de alta qualidade em comparação com os modelos padrão.

Andrew Campbell, Valentin De Bortoli, Jiaxin Shi, Arnaud DoucetMon, 09 Ma🤖 cs.LG

Data-Driven Global Sensitivity Analysis for Engineering Design Based on Individual Conditional Expectations

Este artigo propõe uma nova métrica de sensibilidade global baseada em Curvas de Expectativa Condicional Individual (ICE) para superar as limitações dos Gráficos de Dependência Parcial (PDP) na presença de interações fortes, demonstrando matematicamente sua superioridade e validando-a em casos de engenharia aeroespacial e eólica através de comparações com métodos como SHAP e índices de Sobol'.

Pramudita Satria Palar, Paul Saves, Rommel G. Regis, Koji Shimoyama, Shigeru Obayashi, Nicolas Verstaevel, Joseph MorlierMon, 09 Ma🤖 cs.AI

Behavior-dLDS: A decomposed linear dynamical systems model for neural activity partially constrained by behavior

O artigo apresenta o modelo behavior-dLDS, um sistema dinâmico linear decomposto que desentrelaça dinâmicas neurais latentes relacionadas ao comportamento de computações internas paralelas, demonstrando sua eficácia em dados simulados e sua escalabilidade para milhares de neurônios em gravações de larvas de peixe-zebra.

Eva Yezerets, En Yang, Misha B. Ahrens, Adam S. CharlesMon, 09 Ma🤖 cs.LG

Improved Scaling Laws via Weak-to-Strong Generalization in Random Feature Ridge Regression

Este artigo demonstra que, no contexto de regressão de crista com características aleatórias, é possível obter leis de escala significativamente melhores ao treinar um modelo forte com rótulos imperfeitos de um modelo fraco, permitindo que o aluno atinja taxas de erro ótimas mesmo quando o professor não apresenta melhoria com o aumento dos dados.

Diyuan Wu, Lehan Chen, Theodor Misiakiewicz, Marco MondelliMon, 09 Ma🤖 cs.LG

Large deviation principles for convolutional Bayesian neural networks

Este artigo estabelece, pela primeira vez, um princípio de grandes desvios para redes neurais convolucionais no regime de canais infinitos, demonstrando tal princípio para as matrizes de covariância condicional e para a distribuição posterior sob uma prior gaussiana, além de fornecer uma prova simplificada da equivalência gaussiana e da concentração dessas covariâncias.

Federico Bassetti, Vassili De Palma, Lucia LadelliMon, 09 Ma🔢 math

Agnostic learning in (almost) optimal time via Gaussian surface area

Este artigo melhora os limites conhecidos para a complexidade de aprendizado agnóstico sob marginais gaussianas, demonstrando que um grau polinomial de O~(Γ2/ε2)\tilde O(\Gamma^2 / \varepsilon^2) é suficiente para aproximar classes de conceitos com área de superfície gaussiana Γ\Gamma, resultando em limites quase ótimos para funções de limiar polinomial no modelo de consultas estatísticas.

Lucas Pesenti, Lucas Slot, Manuel WiedmerMon, 09 Ma🤖 cs.LG