Toward Epistemic Stability: Engineering Consistent Procedures for Industrial LLM Hallucination Reduction

Este artigo apresenta e avalia cinco estratégias de engenharia de prompts para reduzir alucinações em modelos de linguagem grandes em contextos industriais, demonstrando que métodos como o Registro de Dados Aprimorado e a Especialização de Agentes de Tarefa Única aumentam significativamente a estabilidade e a consistência dos resultados sem modificar os pesos do modelo.

Brian Freeman, Adam Kicklighter, Matt Erdman, Zach Gordon2026-03-12🤖 cs.AI

InFusionLayer: a CFA-based ensemble tool to generate new classifiers for learning and modeling

Este artigo apresenta o \texttt{InFusionLayer}, uma ferramenta de ensemble em Python baseada na Análise de Fusão Combinatória (CFA) que integra funções de característica de pontuação-rank (RSC) e diversidade cognitiva (CD) para otimizar problemas de classificação multiclasse em fluxos de trabalho de aprendizado de máquina, como PyTorch, TensorFlow e Scikit-learn.

Eric Roginek, Jingyan Xu, D. Frank. Hsu2026-03-12🤖 cs.LG

Where Do Flow Semantics Reside? A Protocol-Native Tabular Pretraining Paradigm for Encrypted Traffic Classification

O artigo propõe o FlowSem-MAE, um paradigma de pré-treinamento tabular nativo de protocolos que, ao tratar as unidades semânticas de fluxo como prioridades arquitetônicas e corrigir vieses indutivos da modelagem baseada em bytes, supera significativamente os métodos atuais de classificação de tráfego criptografado com apenas metade dos dados rotulados.

Sizhe Huang, Shujie Yang2026-03-12🤖 cs.AI

Training Language Models via Neural Cellular Automata

O artigo propõe o uso de autômatos celulares neurais para gerar dados sintéticos não linguísticos que, ao serem utilizados em uma fase de pré-pré-treinamento, melhoram significativamente a eficiência, a convergência e o desempenho em tarefas de raciocínio de modelos de linguagem grandes, superando até mesmo o pré-treinamento com grandes volumes de texto natural.

Dan Lee, Seungwook Han, Akarsh Kumar, Pulkit Agrawal2026-03-12🤖 cs.LG

SBOMs into Agentic AIBOMs: Schema Extensions, Agentic Orchestration, and Reproducibility Evaluation

Este artigo apresenta os AIBOMs (Artificial Intelligence Bills of Materials), uma evolução dos SBOMs baseada em uma arquitetura multiagente autônoma que estende os esquemas CycloneDX e SPDX para capturar comportamento em tempo real, monitorar desvios de ambiente e gerar afirmações estruturadas de explorabilidade, garantindo maior reprodutibilidade e precisão na avaliação de vulnerabilidades da cadeia de suprimentos de software.

Petar Radanliev, Carsten Maple, Omar Santos, Kayvan Atefi2026-03-12🤖 cs.AI

Multi-Agent Memory from a Computer Architecture Perspective: Visions and Challenges Ahead

Este artigo de posição enquadra a memória de sistemas multiagentes como um problema de arquitetura de computadores, propondo uma hierarquia de três camadas e destacando a consistência da memória como o desafio mais urgente para garantir a confiabilidade e escalabilidade desses sistemas.

Zhongming Yu, Naicheng Yu, Hejia Zhang, Wentao Ni, Mingrui Yin, Jiaying Yang, Yujie Zhao, Jishen Zhao2026-03-12🤖 cs.AI

ADVERSA: Measuring Multi-Turn Guardrail Degradation and Judge Reliability in Large Language Models

O artigo apresenta o ADVERSA, um framework automatizado de red-teaming que avalia a degradação contínua das barreiras de segurança e a confiabilidade dos juízes em modelos de linguagem durante interações adversariais de múltiplas rodadas, revelando que as violações de segurança tendem a ocorrer precocemente e destacando desafios como a deriva do atacante e a inconsistência de julgamento.

Harry Owiredu-Ashley2026-03-12🤖 cs.AI

KernelSkill: A Multi-Agent Framework for GPU Kernel Optimization

O KernelSkill é um framework multiagente que otimiza kernels de GPU substituindo heurísticas implícitas de modelos de linguagem por habilidades de especialistas baseadas em conhecimento e uma arquitetura de memória dupla, alcançando sucesso de 100% e acelerações significativas em relação ao Torch Eager e a métodos anteriores.

Qitong Sun, Jun Han, Tianlin Li, Zhe Tang, Sheng Chen, Fei Yang, Aishan Liu, Xianglong Liu, Yang Liu2026-03-12🤖 cs.LG

ES-dLLM: Efficient Inference for Diffusion Large Language Models by Early-Skipping

O artigo apresenta o ES-dLLM, um framework de aceleração de inferência sem treinamento para modelos de linguagem difusivos (dLLMs) que reduz o custo computacional ao pular tokens em camadas iniciais com base na variação de representações intermediárias e em scores de confiança, alcançando ganhos de velocidade significativos sem comprometer a qualidade da geração.

Zijian Zhu, Fei Ren, Zhanhong Tan, Kaisheng Ma2026-03-12🤖 cs.LG