Distilled Circuits: A Mechanistic Study of Internal Restructuring in Knowledge Distillation

Este estudo utiliza técnicas de interpretabilidade mecânica para demonstrar que a destilação de conhecimento, embora preserve comportamentos funcionais amplos, provoca uma reestruturação interna significativa nos modelos, onde os estudantes reorganizam e comprimem os componentes dos professores, resultando em uma dependência mais forte de menos unidades individuais.

Reilly Haskins, Benjamin Adams2026-03-10🤖 cs.LG

Ready2Unlearn: A Learning-Time Approach for Preparing Models with Future Unlearning Readiness

O artigo "Ready2Unlearn" apresenta uma abordagem de otimização durante o treinamento que, baseada em princípios de meta-aprendizado, prepara proativamente modelos de aprendizado de máquina para futuros processos de esquecimento (unlearning), permitindo a remoção eficiente e principista de dados específicos sem a necessidade de reagir apenas após solicitações de exclusão.

Hanyu Duan, Yi Yang, Ahmed Abbasi, Kar Yan Tam2026-03-10🤖 cs.LG

HDLxGraph: Bridging Large Language Models and HDL Repositories via HDL Graph Databases

O artigo apresenta o HDLxGraph, um novo framework que integra características gráficas de Hardware Description Languages (HDLs), como Árvores de Sintaxe Abstrata e Grafos de Fluxo de Dados, a sistemas de Geração Aumentada por Recuperação (RAG) para superar limitações em tarefas de LLM, validado pelo novo benchmark HDLSearch e demonstrando melhorias significativas na precisão de busca, depuração e conclusão de código em comparação com métodos existentes.

Pingqing Zheng (Katie), Jiayin Qin (Katie), Fuqi Zhang (Katie), Niraj Chitla (Katie), Zishen Wan (Katie), Shang Wu (Katie), Yu Cao (Katie), Caiwen Ding (Katie), Yang (Katie), Zhao2026-03-10🤖 cs.LG

The Cell Must Go On: Agar.io for Continual Reinforcement Learning

Este artigo apresenta o AgarCL, uma plataforma de pesquisa baseada no jogo Agar.io para o aprendizado por reforço contínuo, que oferece um ambiente não episódico e dinâmico para avaliar algoritmos e métodos de aprendizado contínuo, revelando que os desafios do ambiente vão além do dilema estabilidade-plasticidade.

Mohamed A. Mohamed, Kateryna Nekhomiazh, Vedant Vyas, Marcos M. Jose, Andrew Patterson, Marlos C. Machado2026-03-10🤖 cs.LG

X-MethaneWet: A Cross-scale Global Wetland Methane Emission Benchmark Dataset for Advancing Science Discovery with AI

Este artigo apresenta o X-MethaneWet, o primeiro conjunto de dados de referência global multiescala para emissões de metano de zonas úmidas, que integra simulações físicas e observações reais para estabelecer bases de modelos de aprendizado profundo e explorar técnicas de aprendizado por transferência, visando aprimorar a modelagem de emissões de metano e impulsionar a descoberta científica com IA.

Yiming Sun, Shuo Chen, Shengyu Chen, Chonghao Qiu, Licheng Liu, Youmi Oh, Sparkle L. Malone, Gavin McNicol, Qianlai Zhuang, Chris Smith, Yiqun Xie, Xiaowei Jia2026-03-10🤖 cs.LG

Stronger Enforcement of Instruction Hierarchy via Augmented Intermediate Representations

Este artigo propõe uma nova abordagem de segurança para modelos de linguagem que injeta sinais de hierarquia de instruções nas representações intermediárias da rede, resultando em uma redução de 1,6 a 9,2 vezes na taxa de sucesso de ataques de injeção de prompt em comparação com métodos existentes, sem comprometer significativamente a utilidade do modelo.

Sanjay Kariyappa, G. Edward Suh2026-03-10🤖 cs.LG

ViTaPEs: Visuotactile Position Encodings for Cross-Modal Alignment in Multimodal Transformers

O artigo apresenta o ViTaPEs, uma arquitetura baseada em transformers que utiliza codificações de posição visotáteis em dois estágios para aprender representações multimodais robustas e generalizáveis, superando os métodos atuais em tarefas de reconhecimento e manipulação robótica sem depender de modelos pré-treinados de visão e linguagem.

Fotios Lygerakis, Ozan Özdenizci, Elmar Rückert2026-03-10🤖 cs.LG

Adaptive Correction for Ensuring Conservation Laws in Neural Operators

Este trabalho propõe uma abordagem de correção adaptativa e plug-and-play que utiliza um operador leve aprendível para garantir a estrita conservação de leis físicas fundamentais em operadores neurais, superando as limitações de flexibilidade dos métodos existentes e demonstrando superioridade em precisão e estabilidade em diversos benchmarks de EDPs.

Chaoyu Liu, Yangming Li, Zhongying Deng, Chris Budd, Carola-Bibiane Schönlieb2026-03-10🤖 cs.LG