How Quantization Shapes Bias in Large Language Models

Este trabalho avalia como a quantização de pesos e ativações afeta o viés em grandes modelos de linguagem, revelando que, embora possa reduzir a toxicidade e não impactar significativamente o sentimento, tende a aumentar ligeiramente estereótipos e injustiças em tarefas generativas sob compressão agressiva, destacando a necessidade de equilibrar eficiência e considerações éticas.

Federico Marcuzzi, Xuefei Ning, Roy Schwartz + 1 more2026-03-06💻 cs

New Insights into Optimal Alignment of Acoustic and Linguistic Representations for Knowledge Transfer in ASR

Este trabalho propõe um modelo de alinhamento baseado em transporte ótimo desequilibrado, que trata a correspondência entre representações acústicas e linguísticas como um problema de detecção para lidar com assimetrias estruturais e ruídos, melhorando assim a transferência de conhecimento em sistemas de reconhecimento automático de fala (ASR).

Xugang Lu, Peng Shen, Hisashi Kawai2026-03-06💻 cs

Conversational Speech Reveals Structural Robustness Failures in SpeechLLM Backbones

Este estudo revela que os modelos de linguagem fundamentais em sistemas de fala (SpeechLLMs) apresentam falhas de robustez estrutural ao processar conversas espontâneas, demonstrando que modelos de raciocínio tendem a suprimir indevidamente conteúdo fluente em favor da abstração semântica e que o ajuste fino, embora melhore resultados imediatos, prejudica a generalização.

Maria Teleki, Sai Janjur, Haoran Liu + 11 more2026-03-06💻 cs

PrefDisco: Benchmarking Proactive Personalized Reasoning

O artigo apresenta o PrefDisco, uma metodologia de avaliação que transforma benchmarks estáticos em tarefas interativas para medir a capacidade de modelos de linguagem de realizar "raciocínio personalizado" proativo, demonstrando que a adaptação às preferências individuais não surge naturalmente e requer desenvolvimento dedicado para aplicações críticas como educação e saúde.

Shuyue Stella Li, Avinandan Bose, Faeze Brahman + 4 more2026-03-06💻 cs

Beyond Prefixes: Graph-as-Memory Cross-Attention for Knowledge Graph Completion with Large Language Models

O artigo propõe o Graph-as-Memory Tuning (GMT), uma nova abordagem que supera as limitações da concatenação de prefixos ao representar a estrutura local de grafos de conhecimento como memórias explícitas e integrá-las dinamicamente em Grandes Modelos de Linguagem via atenção cruzada token a token, resultando em desempenho superior para a conclusão de grafos de conhecimento.

Ruitong Liu, Boxu Lin, Peize Li + 4 more2026-03-06💻 cs

Narrow Finetuning Leaves Clearly Readable Traces in Activation Differences

O artigo demonstra que o ajuste fino em domínios restritos deixa traços legíveis e fortes nos ativações de modelos de linguagem, que podem ser explorados para inferir o domínio de treinamento e que, embora a mistura de dados de pré-treinamento possa mitigar esses vieses, eles levantam preocupações sobre a segurança, a interpretabilidade e a validade do uso desses modelos como proxies para estudos de alinhamento mais amplos.

Julian Minder, Clément Dumas, Stewart Slocum + 4 more2026-03-06💻 cs

Grasp Any Region: Towards Precise, Contextual Pixel Understanding for Multimodal LLMs

O artigo apresenta o Grasp Any Region (GAR), um modelo de linguagem multimodal que supera as limitações anteriores ao integrar contexto global e interações entre múltiplas regiões para permitir um entendimento visual preciso e raciocínio composicional avançado, validado pelo novo benchmark GAR-Bench e demonstrando capacidades superiores tanto em imagens quanto em vídeos.

Haochen Wang, Yuhao Wang, Tao Zhang + 13 more2026-03-06💻 cs

EchoMind: An Interrelated Multi-level Benchmark for Evaluating Empathetic Speech Language Models

O artigo apresenta o EchoMind, o primeiro benchmark inter-relacionado e multinível que avalia a capacidade de modelos de linguagem falada de integrar pistas vocais não lexicais com o conteúdo linguístico para gerar respostas empáticas, revelando que mesmo os modelos mais avançados atuais têm dificuldades significativas em perceber e responder adequadamente a nuances emocionais na fala.

Li Zhou, Lutong Yu, You Lyu + 6 more2026-03-06💻 cs