New Insights into Optimal Alignment of Acoustic and Linguistic Representations for Knowledge Transfer in ASR

Este trabalho propõe um modelo de alinhamento baseado em transporte ótimo desequilibrado, que trata a correspondência entre representações acústicas e linguísticas como um problema de detecção para lidar com assimetrias estruturais e ruídos, melhorando assim a transferência de conhecimento em sistemas de reconhecimento automático de fala (ASR).

Xugang Lu, Peng Shen, Hisashi Kawai2026-03-06💻 cs

Diffusion-Based Impedance Learning for Contact-Rich Manipulation Tasks

O artigo apresenta o "Diffusion-Based Impedance Learning", um framework que combina modelos generativos baseados em difusão com controle de impedância para permitir que robôs aprendam comportamentos de interação física ricos em contato, alcançando alta precisão e sucesso em tarefas complexas como inserção de pinos em furos através da adaptação online de rigidez e amortecimento.

Noah Geiger, Tamim Asfour, Neville Hogan + 1 more2026-03-06💻 cs

Noise-to-Notes: Diffusion-based Generation and Refinement for Automatic Drum Transcription

Este trabalho apresenta o Noise-to-Notes (N2N), um novo quadro de trabalho baseado em modelos de difusão que redefine a transcrição automática de bateria como uma tarefa generativa condicional, utilizando uma perda Pseudo-Huber anelada e recursos de modelos fundamentais de música para alcançar desempenho superior e maior robustez em benchmarks existentes.

Michael Yeung, Keisuke Toyama, Toya Teramoto + 2 more2026-03-06💻 cs

Quantitative convergence of trained single layer neural networks to Gaussian processes

Este artigo estabelece limites superiores explícitos para a distância de Wasserstein quadrática entre redes neurais de camada única treinadas por descida de gradiente e seus processos gaussianos associados no limite de largura infinita, demonstrando um decaimento polinomial do erro de aproximação em função da largura da rede e quantificando a influência dos parâmetros arquitetônicos e da dinâmica de treinamento.

Eloy Mosig, Andrea Agazzi, Dario Trevisan2026-03-06🔢 math

Do We Really Need Permutations? Impact of Model Width on Linear Mode Connectivity

Este trabalho demonstra empiricamente que, ao utilizar uma calibração adequada de temperatura softmax, simplesmente aumentar a largura do modelo é suficiente para alcançar a conectividade linear de modos (LMC) sem a necessidade de permutações de parâmetros, explicando esse fenômeno através da conectividade exponencialmente ponderada por camadas (LEWC) que faz com que o modelo fundido corresponda a um ensemble dos modelos originais.

Akira Ito, Masanori Yamada, Daiki Chijiwa + 1 more2026-03-06💻 cs