Why Are Linear RNNs More Parallelizable?

Este artigo estabelece uma conexão teórica fundamental entre complexidade computacional e arquiteturas de redes neurais, demonstrando que as RNNs lineares são altamente paralelizáveis por pertencerem à classe NC1\mathsf{NC}^1 (semelhante aos Transformers), enquanto as RNNs não lineares enfrentam barreiras de paralelização ao resolverem problemas completos em L\mathsf{L} ou P\mathsf{P}.

William Merrill, Hongjian Jiang, Yanhong Li + 2 more2026-03-06💻 cs

Bielik-Q2-Sharp: A Comparative Study of Extreme 2-bit Quantization Methods for a Polish 11B Language Model

Este estudo apresenta o Bielik-Q2-Sharp, a primeira avaliação sistemática de métodos de quantização extrema a 2 bits para o modelo de linguagem polonês Bielik-11B, demonstrando que o método QuIP# E8P12 atinge desempenho comparável ao baseline IQ2_XXS em benchmarks poloneses, com ganhos superiores em raciocínio e uma eficiência per-bit notável do QTIP, tudo realizado por um único pesquisador com um orçamento limitado.

Jakub Prejzner2026-03-06💻 cs

SearchGym: A Modular Infrastructure for Cross-Platform Benchmarking and Hybrid Search Orchestration

O artigo apresenta o SearchGym, uma infraestrutura modular de código aberto que permite a orquestração de buscas híbridas e o benchmarking cross-plataforma através de abstrações desacopladas e uma álgebra de configuração composicional, demonstrando que a ordem ótima de filtragem e classificação semântica depende da força do filtro e alcançando uma taxa de recuperação de 70% no benchmark LitSearch.

Jerome Tze-Hou Hsu2026-03-06💻 cs

Signal in the Noise: Decoding the Reality of Airline Service Quality with Large Language Models

Este estudo valida um framework de Modelo de Linguagem Grande (LLM) que, ao analisar mais de 16.000 avaliações não estruturadas, revela uma desconexão entre as melhorias operacionais e a queda na satisfação dos passageiros da EgyptAir, demonstrando a superioridade dessa abordagem em relação às métricas tradicionais para identificar drivers críticos de insatisfação.

Ahmed Dawoud, Osama El-Shamy, Ahmed Habashy2026-03-06💻 cs

CTRL-RAG: Contrastive Likelihood Reward Based Reinforcement Learning for Context-Faithful RAG Models

O artigo propõe o CTRL-RAG, um novo framework de recompensa híbrido baseado em Reinforcement Learning que utiliza uma Recompensa de Verossimilhança Contrastiva (CLR) para otimizar a fé dos modelos de linguagem em documentos de contexto, superando as limitações das recompensas externas e prevenindo o colapso do modelo em cenários de RAG.

Zhehao Tan, Yihan Jiao, Dan Yang + 8 more2026-03-06💻 cs

Unpacking Human Preference for LLMs: Demographically Aware Evaluation with the HUMAINE Framework

O artigo apresenta o framework HUMAINE, que utiliza um conjunto de dados demograficamente estratificado de 23.404 participantes e um modelo hierárquico bayesiano para revelar que, embora o modelo *gemini-2.5-pro* seja o líder geral, as preferências humanas variam significativamente entre grupos etários e dimensões de avaliação, destacando a necessidade de uma metodologia de avaliação multidimensional e demograficamente consciente para LLMs.

Nora Petrova, Andrew Gordon, Enzo Blindow2026-03-06💻 cs

Simulating Meaning, Nevermore! Introducing ICR: A Semiotic-Hermeneutic Metric for Evaluating Meaning in LLM Text Summaries

Este artigo propõe e valida a métrica Inductive Conceptual Rating (ICR), um framework qualitativo que integra semiótica e hermenêutica para avaliar a precisão semântica e a alinhamento de significado em resumos gerados por LLMs, demonstrando que, embora essas modelos apresentem alta similaridade lexical, frequentemente falham em capturar significados contextualmente fundamentados em comparação com a produção humana.

Natalie Perez, Sreyoshi Bhaduri, Aman Chadha2026-03-06💻 cs