HELM: Hierarchical and Explicit Label Modeling with Graph Learning for Multi-Label Image Classification

O artigo apresenta o HELM, um novo framework que combina tokens de classe específicos de hierarquia, redes neurais convolucionais em grafos e aprendizado auto-supervisionado para alcançar desempenho superior na classificação multi-rótulo de imagens de sensoriamento remoto, especialmente em cenários com poucos dados rotulados.

Marjan Stoimchev, Boshko Koloski, Jurica Levatic, Dragi Kocev, Sašo Džeroski2026-03-13🤖 cs.AI

Automating Skill Acquisition through Large-Scale Mining of Open-Source Agentic Repositories: A Framework for Multi-Agent Procedural Knowledge Extraction

Este relatório apresenta um framework para a aquisição automatizada de habilidades procedimentais de alto nível, através da mineração de repositórios de código aberto, que extrai e padroniza capacidades de agentes especializados para aprimorar modelos de linguagem sem necessidade de re-treinamento, demonstrando ganhos significativos na eficiência da transferência de conhecimento educacional.

Shuzhen Bi, Mengsong Wu, Hao Hao, Keqian Li, Wentao Liu, Siyu Song, Hongbo Zhao, Aimin Zhou2026-03-13🤖 cs.AI

Automated Detection of Malignant Lesions in the Ovary Using Deep Learning Models and XAI

Este estudo desenvolveu e avaliou múltiplos modelos de redes neurais convolucionais, identificando o InceptionV3 como o mais eficaz para a detecção de câncer de ovário com 94% de precisão, e utilizou técnicas de Inteligibilidade Artificial (XAI) para interpretar os resultados do modelo.

Md. Hasin Sarwar Ifty, Nisharga Nirjan, Labib Islam, M. A. Diganta, Reeyad Ahmed Ornate, Anika Tasnim, Md. Saiful Islam2026-03-13🤖 cs.AI

You Told Me to Do It: Measuring Instructional Text-induced Private Data Leakage in LLM Agents

O artigo identifica e quantifica a "Dilema do Executor Confiável", uma vulnerabilidade estrutural em agentes LLM de alto privilégio que, ao seguirem cegamente instruções embutidas em documentação externa, permitem a exfiltração de dados com altas taxas de sucesso, revelando uma lacuna crítica entre a conformidade funcional e a segurança que as defesas atuais não conseguem mitigar.

Ching-Yu Kao, Xinfeng Li, Shenyu Dai, Tianze Qiu, Pengcheng Zhou, Eric Hanchen Jiang, Philip Sperl2026-03-13🤖 cs.AI

CreativeBench: Benchmarking and Enhancing Machine Creativity via Self-Evolving Challenges

O artigo apresenta o CreativeBench, um benchmark quantitativo para avaliar a criatividade de máquinas em geração de código através de métricas de qualidade e novidade, revelando que o escalonamento melhora a criatividade combinatória mas reduz a divergência, e propondo a estratégia EvoRePE para aprimorar consistentemente a criatividade durante a inferência.

Zi-Han Wang, Lam Nguyen, Zhengyang Zhao, Mengyue Yang, Chengwei Qin, Yujiu Yang, Linyi Yang2026-03-13🤖 cs.AI

Social, Legal, Ethical, Empathetic and Cultural Norm Operationalisation for AI Agents

Este artigo propõe um processo sistemático para operacionalizar normas sociais, legais, éticas, empáticas e culturais (SLEEC) em agentes de IA, preenchendo a lacuna entre princípios abstratos e requisitos concretos, além de apresentar um quadro de referência e uma agenda de pesquisa para garantir a alinhamento demonstrável desses sistemas com valores humanos.

Radu Calinescu, Ana Cavalcanti, Marsha Chechik, Lina Marsso, Beverley Townsend2026-03-13🤖 cs.AI

ELISA: An Interpretable Hybrid Generative AI Agent for Expression-Grounded Discovery in Single-Cell Genomics

O artigo apresenta o ELISA, um agente de IA híbrido e interpretável que unifica embeddings de expressão gênica, recuperação semântica e raciocínio de modelos de linguagem para permitir a descoberta interativa de hipóteses biológicas em dados de sequenciamento de RNA de célula única, superando métodos existentes na recuperação de tipos celulares e na geração de insights mecanicistas.

Omar Coser2026-03-13🧬 q-bio

AdaFuse: Accelerating Dynamic Adapter Inference via Token-Level Pre-Gating and Fused Kernel Optimization

O artigo apresenta o AdaFuse, um framework que otimiza a inferência de adaptadores dinâmicos em LLMs ao combinar uma estratégia de pré-gating em nível de token com kernels CUDA fundidos, reduzindo a latência de decodificação em mais de 2,4 vezes sem comprometer a precisão.

Qiyang Li, Rui Kong, Yuchen Li, Hengyi Cai, Shuaiqiang Wang, Linghe Kong, Guihai Chen, Dawei Yin2026-03-13🤖 cs.AI

Bielik-Minitron-7B: Compressing Large Language Models via Structured Pruning and Knowledge Distillation for the Polish Language

O artigo apresenta o Bielik-Minitron-7B, um modelo de linguagem polonês comprimido que reduz em 33,4% os parâmetros do Bielik-11B-v3.0 através de poda estruturada e destilação de conhecimento, recuperando 90% do desempenho original e oferecendo até 50% de aceleração na inferência.

Remigiusz Kinas, Paweł Kiszczak, Sergio P. Perez, Krzysztof Ociepa, Łukasz Flis, Krzysztof Wróbel, Adrian Gwozdziej2026-03-13💬 cs.CL

Think While Watching: Online Streaming Segment-Level Memory for Multi-Turn Video Reasoning in Multimodal Large Language Models

O artigo apresenta o "Think While Watching", um framework de raciocínio em vídeo para modelos multimodais que, ao preservar memória contínua em nível de segmento e permitir a percepção e geração simultâneas, supera as limitações de métodos de streaming existentes e alcança desempenho superior em benchmarks de interação multi-turno.

Lu Wang (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Zhuoran Jin (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yupu Hao (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yubo Chen (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Kang Liu (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yulong Ao (Beijing Academy of Artificial Intelligence), Jun Zhao (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China)2026-03-13💬 cs.CL

EnTransformer: A Deep Generative Transformer for Multivariate Probabilistic Forecasting

O artigo apresenta o EnTransformer, um modelo generativo profundo que combina a técnica de "engression" com arquiteturas Transformer para realizar previsões probabilísticas multivariadas calibradas e coerentes, superando os métodos existentes ao aprender distribuições preditivas condicionais complexas sem assumir formas paramétricas restritivas.

Rajdeep Pathak, Rahul Goswami, Madhurima Panja, Palash Ghosh, Tanujit Chakraborty2026-03-13📊 stat

Understanding LLM Behavior When Encountering User-Supplied Harmful Content in Harmless Tasks

Este estudo revela que os atuais Grandes Modelos de Linguagem (LLMs), incluindo os mais recentes, frequentemente falham em rejeitar conteúdo prejudicial fornecido pelo usuário quando este é inserido em tarefas aparentemente inofensivas, expondo uma vulnerabilidade ética de nível de conteúdo que requer medidas de segurança aprimoradas.

Junjie Chu, Yiting Qu, Ye Leng, Michael Backes, Yun Shen, Savvas Zannettou, Yang Zhang2026-03-13🤖 cs.AI

MobileKernelBench: Can LLMs Write Efficient Kernels for Mobile Devices?

Este artigo apresenta o MobileKernelBench, um novo framework de avaliação que revela as limitações atuais dos LLMs na geração de kernels eficientes para dispositivos móveis e propõe o MoKA, um agente multiagente que supera essas barreiras, alcançando uma taxa de sucesso de compilação de 93,7% e melhorias de desempenho significativas.

Xingze Zou, Jing Wang, Yuhua Zheng, Xueyi Chen, Haolei Bai, Lingcheng Kong, Syed A. R. Abu-Bakar, Zhaode Wang, Chengfei Lv, Haoji Hu, Huan Wang2026-03-13🤖 cs.LG