CAM-LDS: Cyber Attack Manifestations for Automatic Interpretation of System Logs and Security Alerts

Este artigo apresenta o CAM-LDS, um novo conjunto de dados de logs de ataques cibernéticos gerado em um ambiente de teste reprodutível para superar a escassez de dados rotulados e demonstrar a eficácia de Modelos de Linguagem Grandes (LLMs) na interpretação automática e semântica de logs de segurança e alertas de intrusão.

Max Landauer, Wolfgang Hotwagner, Thorina Boenke + 2 more2026-03-05🤖 cs.AI

Towards Realistic Personalization: Evaluating Long-Horizon Preference Following in Personalized User-LLM Interactions

Este trabalho apresenta o RealPref, um novo benchmark projetado para avaliar a capacidade de modelos de linguagem de seguir preferências de usuários em interações personalizadas de longo prazo, revelando que o desempenho desses modelos diminui significativamente à medida que o contexto se expande e as preferências se tornam mais implícitas.

Qianyun Guo, Yibo Li, Yue Liu + 1 more2026-03-05🤖 cs.AI

PRAM-R: A Perception-Reasoning-Action-Memory Framework with LLM-Guided Modality Routing for Adaptive Autonomous Driving

Este artigo apresenta o PRAM-R, um framework unificado de percepção, raciocínio, ação e memória que utiliza roteamento de modalidades guiado por LLM e um design de duplo loop assíncrono para otimizar a eficiência computacional e a adaptação na condução autônoma, reduzindo significativamente o uso de sensores e oscilações de roteamento sem comprometer a precisão em cenários urbanos complexos.

Yi Zhang, Xian Zhang, Saisi Zhao + 4 more2026-03-05🤖 cs.AI

FeedAIde: Guiding App Users to Submit Rich Feedback Reports by Asking Context-Aware Follow-Up Questions

O artigo apresenta o FeedAIde, um sistema baseado em Modelos de Linguagem Multimodais que guia os usuários a fornecerem relatórios de feedback mais ricos e completos por meio de perguntas de acompanhamento adaptativas ao contexto, demonstrando em um estudo de caso que essa abordagem melhora tanto a experiência do usuário quanto a qualidade das informações recebidas pelos desenvolvedores.

Ali Ebrahimi Pourasad, Meyssam Saghiri, Walid Maalej2026-03-05🤖 cs.AI

LikeThis! Empowering App Users to Submit UI Improvement Suggestions Instead of Complaints

O artigo apresenta o LikeThis!, uma abordagem baseada em IA generativa que capacita os usuários a transformar críticas vagas em sugestões de melhoria de UI concretas e acionáveis, gerando alternativas visuais a partir de comentários e capturas de tela, o que foi validado por estudos de benchmark e com usuários como uma forma eficaz de aprimorar a colaboração entre usuários e desenvolvedores.

Jialiang Wei, Ali Ebrahimi Pourasad, Walid Maalej2026-03-05🤖 cs.AI

When AI Fails, What Works? A Data-Driven Taxonomy of Real-World AI Risk Mitigation Strategies

Este artigo apresenta uma taxonomia empiricamente fundamentada de estratégias de mitigação de riscos de IA, derivada da análise de 9.705 incidentes reais, que expande significativamente o conhecimento existente ao identificar novos padrões de resposta e fortalecer a orientação para a prevenção de falhas sistêmicas em fluxos de trabalho de alto risco.

Evgenija Popchanovska, Ana Gjorgjevikj, Maryan Rizinski + 3 more2026-03-05🤖 cs.AI

VANGUARD: Vehicle-Anchored Ground Sample Distance Estimation for UAVs in GPS-Denied Environments

O artigo apresenta o VANGUARD, uma ferramenta de percepção geométrica leve e determinística que permite a agentes autônomos baseados em LLMs recuperar a escala métrica em ambientes sem GPS ao estimar a Distância de Amostragem do Solo (GSD) a partir de veículos detectados, superando as alucinações espaciais de modelos de visão-linguagem e reduzindo significativamente erros e falhas catastróficas na medição de áreas.

Yifei Chen, Xupeng Chen, Feng Wang + 2 more2026-03-05🤖 cs.AI

Activation Outliers in Transformer Quantization: Reproduction, Statistical Analysis, and Deployment Tradeoffs

Este artigo demonstra que a degradação severa na quantização pós-treinamento de transformers é causada por outliers de ativação estruturados, e que estratégias de alocação de precisão por canal, como a quantização mista, são essenciais para recuperar a acurácia, enquanto o ajuste baseado apenas em percentis falha e não impacta significativamente o desempenho de hardware.

Pranav Kumar Kaliaperumal2026-03-05🤖 cs.AI