Memex(RL): Scaling Long-Horizon LLM Agents via Indexed Experience Memory

O artigo apresenta o Memex, um mecanismo de memória indexada que supera os gargalos de janelas de contexto em agentes LLM de longo prazo ao armazenar interações completas em um banco de dados externo e manter apenas resumos estruturados e índices no contexto ativo, otimizado pelo framework de aprendizado por reforço MemexRL para recuperar evidências precisas sob demanda e melhorar o sucesso em tarefas complexas.

Zhenting Wang, Huancheng Chen, Jiayun Wang + 1 more2026-03-05🤖 cs.LG

Position: Vector Prompt Interfaces Should Be Exposed to Enable Customization of Large Language Models

Este artigo defende que os provedores de modelos de linguagem devem expor interfaces de prompts vetoriais para permitir uma personalização escalável e estável, argumentando que essa abordagem supera as limitações de saturação dos prompts de texto e oferece um mecanismo de controle distinto sem aumentar significativamente os riscos de vazamento de dados.

Liangwei Yang, Shiyu Wang, Haolin Chen + 12 more2026-03-05✓ Author reviewed 💬 cs.CL

The Company You Keep: How LLMs Respond to Dark Triad Traits

Este estudo analisa como os Grandes Modelos de Linguagem (LLMs) respondem a traços da Tríade Sombria, revelando que, embora predominem comportamentos corretivos, eles podem reforçar respostas em certos casos, o que destaca a necessidade de projetar sistemas conversacionais mais seguros capazes de detectar e lidar adequadamente com a escalada de solicitações prejudiciais.

Zeyi Lu, Angelica Henestrosa, Pavel Chizhov + 1 more2026-03-05💬 cs.CL

V1V_1: Unifying Generation and Self-Verification for Parallel Reasoners

O artigo apresenta a V1V_1, uma estrutura que unifica geração e auto-verificação por meio de classificação em pares, utilizando o algoritmo V1V_1-Infer para alocar dinamicamente recursos de verificação e o treinamento V1V_1-PairRL para otimizar conjuntamente o gerador e o verificador, resultando em ganhos significativos de desempenho e eficiência em tarefas complexas de raciocínio e geração de código.

Harman Singh, Xiuyu Li, Kusha Sareen + 14 more2026-03-05💬 cs.CL

World Properties without World Models: Recovering Spatial and Temporal Structure from Co-occurrence Statistics in Static Word Embeddings

Este estudo demonstra que a capacidade de recuperar variáveis geográficas e temporais a partir de embeddings estáticos baseados em co-ocorrência (como GloVe e Word2Vec) reflete a estrutura latente do próprio texto e não a existência de modelos de mundo internos, sugerindo que a recuperabilidade por meio de sondas lineares não é suficiente para provar representações que vão além do texto.

Elan Barenholtz2026-03-05🤖 cs.AI

AILS-NTUA at SemEval-2026 Task 12: Graph-Based Retrieval and Reflective Prompting for Abductive Event Reasoning

O sistema AILS-NTUA, vencedor da tarefa 12 de SemEval-2026, alcançou a primeira posição com 95% de precisão ao combinar recuperação baseada em grafos, raciocínio abduzido por LLMs com prompts evolutivos reflexivos e verificação de consistência, revelando também viéses indutivos comuns em modelos de raciocínio causal.

Nikolas Karafyllis, Maria Lymperaiou, Giorgos Filandrianos + 2 more2026-03-05💬 cs.CL

Pointer-CAD: Unifying B-Rep and Command Sequences via Pointer-based Edges & Faces Selection

O artigo apresenta o Pointer-CAD, um novo framework baseado em LLMs para geração de modelos CAD que unifica representações B-rep e sequências de comandos por meio de ponteiros para seleção de entidades geométricas, superando as limitações de edição complexa e erros topológicos de métodos anteriores e alcançando alta precisão graças a um conjunto de dados de 575 mil modelos anotados.

Dacheng Qi, Chenyu Wang, Jingwei Xu + 6 more2026-03-05💬 cs.CL

VQA-MHUG: A Gaze Dataset to Study Multimodal Neural Attention in Visual Question Answering

O artigo apresenta o VQA-MHUG, um novo conjunto de dados de olhar humano multimodal para VQA, e demonstra pela primeira vez que a correlação entre a atenção neural e a humana no texto é um preditor significativo do desempenho do modelo, sugerindo a necessidade de aprimorar os mecanismos de atenção textual nas arquiteturas de visão e linguagem.

Ekta Sood, Fabian Kögel, Florian Strohm + 2 more2026-03-04💬 cs.CL

Reproduction and Replication of an Adversarial Stylometry Experiment

Este artigo reproduz e replica um estudo seminal sobre estilometria adversária, concluindo que, embora as defesas analisadas sejam eficazes, sua efetividade pode ter sido superestimada na pesquisa original devido à falta de um grupo de controle, ao mesmo tempo em que destaca a necessidade de reavaliar o método de tradução de ida e volta como uma técnica automática promissora para reduzir a precisão da atribuição de autoria.

Haining Wang, Patrick Juola, Allen Riddell2026-03-04💬 cs.CL