SENS-ASR: Semantic Embedding injection in Neural-transducer for Streaming Automatic Speech Recognition

O artigo apresenta o SENS-ASR, uma abordagem que melhora a qualidade da transcrição em sistemas de reconhecimento automático de fala em streaming ao reforçar informações acústicas com informações semânticas extraídas de embeddings de frames passados via um módulo treinado por destilação de conhecimento.

Youness Dkhissi (LIUM), Valentin Vielzeuf (LIUM), Elys Allesiardo (LIUM), Anthony Larcher (LIUM)2026-03-12💬 cs.CL

Personalized Group Relative Policy Optimization for Heterogenous Preference Alignment

O artigo apresenta o Personalized GRPO (P-GRPO), um novo framework de alinhamento que supera as limitações do GRPO padrão ao normalizar vantagens com base em históricos específicos de grupos de preferência, permitindo assim uma convergência mais rápida e um alinhamento eficaz com preferências humanas heterogêneas sem sacrificar capacidades gerais.

Jialu Wang, Heinrich Peters, Asad A. Butt, Navid Hashemi, Alireza Hashemi, Pouya M. Ghari, Joseph Hoover, James Rae, Morteza Dehghani2026-03-12🤖 cs.LG

Measuring and Eliminating Refusals in Military Large Language Models

Este artigo apresenta um novo conjunto de dados de referência desenvolvido por veteranos para medir as taxas de recusa em Modelos de Linguagem de Grande Escala (LLMs) militares, demonstrando que técnicas como a ablação podem reduzir drasticamente essas recusas, embora com um leve impacto em outras tarefas, e defende uma especialização mais profunda dos modelos para garantir respostas precisas em cenários de combate.

Jack FitzGerald, Dylan Bates, Aristotelis Lazaridis, Aman Sharma, Vincent Lu, Brian King, Yousif Azami, Sean Bailey, Jeremy Cao, Peter Damianov, Kevin de Haan, Joseph Madigan, Jeremy McLaurin, Luke Kerbs, Jonathan Tainer, Dave Anderson, Jonathan Beck, Jamie Cuticello, Colton Malkerson, Tyler Saltsman2026-03-12💬 cs.CL

Assessing Cognitive Biases in LLMs for Judicial Decision Support: Virtuous Victim and Halo Effects

Este estudo avalia se modelos de linguagem de grande escala (LLMs) exibem vieses cognitivos humanos, como o efeito de vítima virtuosa e o efeito de halo, ao analisar seu impacto em decisões judiciais de sentença, descobrindo que, embora apresentem variações entre si e ainda não sejam adequados para uso judicial direto, demonstram melhorias modestas em relação a benchmarks humanos, com uma redução significativa no viés baseado em credenciais.

Sierra S. Liu2026-03-12💻 cs

DeliberationBench: A Normative Benchmark for the Influence of Large Language Models on Users' Views

O artigo apresenta o DeliberationBench, um benchmark normativo que avalia a influência de modelos de linguagem de grande escala (LLMs) nas opiniões dos usuários, demonstrando por meio de um experimento com milhares de participantes que esses modelos tendem a promover mudanças de opinião alinhadas com os padrões de legitimidade democrática e autonomia.

Luke Hewitt, Maximilian Kroner Dale, Paul de Font-Reaulx2026-03-12💻 cs

Defining AI Models and AI Systems: A Framework to Resolve the Boundary Problem

Este artigo propõe definições conceituais e operacionais claras para distinguir "modelos de IA" de "sistemas de IA", com base em uma revisão sistemática da literatura e de documentos regulatórios, visando resolver ambiguidades na atribuição de responsabilidades aos diferentes atores da cadeia de valor de IA e facilitar a implementação de regulamentações como o AI Act da UE.

Yuanyuan Sun, Timothy Parker, Lara Gierschmann, Sana Shams, Teo Canmetin, Mathieu Duteil, Rokas Gipiškis, Ze Shen Chin2026-03-12🤖 cs.AI

A Governance and Evaluation Framework for Deterministic, Rule-Based Clinical Decision Support in Empiric Antibiotic Prescribing

Este trabalho propõe um framework de governança e avaliação para sistemas de suporte à decisão clínica determinísticos e baseados em regras, focado na prescrição empírica de antibióticos, que prioriza transparência, auditabilidade e a abstenção de recomendações quando as condições de governança não são atendidas, utilizando casos sintéticos para validar o alinhamento comportamental com as regras em vez de eficácia clínica.

Francisco José Gárate, Paloma Chausa, Diego Moreno, Judit López Luque, Vicens Díaz-Brito, Enrique Javier Gómez2026-03-12🤖 cs.AI

How to Count AIs: Individuation and Liability for AI Agents

Este artigo diagnostica a dificuldade jurídica de identificar agentes de IA devido à sua natureza volátil e sem corpo, propondo a criação de uma "Corporação Algorítmica" (A-corp) como entidade legal fictícia que, ao possuir recursos e operar sob incentivos de responsabilidade civil, resolve simultaneamente os problemas de identificação "fina" (vinculando ações a humanos) e "grossa" (estabelecendo unidades de IA persistentes e coerentes).

Yonathan Arbel, Peter Salib, Simon Goldstein2026-03-12🤖 cs.AI

Architecture-Aware LLM Inference Optimization on AMD Instinct GPUs: A Comprehensive Benchmark and Deployment Study

Este estudo apresenta uma avaliação abrangente da inferência de LLMs em GPUs AMD Instinct MI325X, demonstrando que otimizações específicas da arquitetura (como o uso seletivo do runtime AITER e configurações de cache) são essenciais para maximizar o desempenho, alcançando altas taxas de processamento e estabilidade em workloads de texto e visão.

Athos Georgiou2026-03-12🤖 cs.AI

Evaluating Progress in Graph Foundation Models: A Comprehensive Benchmark and New Insights

Este artigo apresenta um novo benchmark abrangente que avalia modelos fundamentais de grafos (GFM) considerando simultaneamente as dimensões de domínio temático e de formato, permitindo uma análise mais precisa da transferência de conhecimento e fornecendo novas perspectivas empíricas para o campo.

Xingtong Yu, Shenghua Ye, Ruijuan Liang, Chang Zhou, Hong Cheng, Xinming Zhang, Yuan Fang2026-03-12💬 cs.CL

AMB-DSGDN: Adaptive Modality-Balanced Dynamic Semantic Graph Differential Network for Multimodal Emotion Recognition

O artigo propõe a AMB-DSGDN, uma rede neural que utiliza grafos semânticos dinâmicos específicos para cada modalidade e um mecanismo de atenção diferencial para filtrar ruídos e equilibrar adaptativamente a contribuição dos sinais de texto, áudio e vídeo, melhorando assim o reconhecimento de emoções em diálogos multimodais.

Yunsheng Wang, Yuntao Shou, Yilong Tan, Wei Ai, Tao Meng, Keqin Li2026-03-12🤖 cs.AI

Safety Under Scaffolding: How Evaluation Conditions Shape Measured Safety

Este estudo demonstra que as condições de avaliação, particularmente o formato das perguntas (múltipla escolha versus aberto), têm um impacto maior na segurança medida dos modelos de linguagem do que as arquiteturas de scaffolding em si, revelando que as classificações de segurança não são generalizáveis e variam drasticamente dependendo do modelo e da configuração de implantação.

David Gringras2026-03-12🤖 cs.AI

Gated Adaptation for Continual Learning in Human Activity Recognition

Este artigo propõe um framework de aprendizado contínuo eficiente em parâmetros para reconhecimento de atividades humanas em dispositivos IoT, que utiliza modulação por portas em canais de representações pré-treinadas congeladas para adaptar modelos a novos sujeitos com alta precisão e estabilidade, minimizando drasticamente o esquecimento catastrófico sem a necessidade de buffers de replay ou transmissão de dados sensíveis.

Reza Rahimi Azghan, Gautham Krishna Gudur, Mohit Malu, Edison Thomaz, Giulia Pedrielli, Pavan Turaga, Hassan Ghasemzadeh2026-03-12🤖 cs.LG