VQA-MHUG: A Gaze Dataset to Study Multimodal Neural Attention in Visual Question Answering

O artigo apresenta o VQA-MHUG, um novo conjunto de dados de olhar humano multimodal para VQA, e demonstra pela primeira vez que a correlação entre a atenção neural e a humana no texto é um preditor significativo do desempenho do modelo, sugerindo a necessidade de aprimorar os mecanismos de atenção textual nas arquiteturas de visão e linguagem.

Ekta Sood, Fabian Kögel, Florian Strohm + 2 more2026-03-04💬 cs.CL

Reproduction and Replication of an Adversarial Stylometry Experiment

Este artigo reproduz e replica um estudo seminal sobre estilometria adversária, concluindo que, embora as defesas analisadas sejam eficazes, sua efetividade pode ter sido superestimada na pesquisa original devido à falta de um grupo de controle, ao mesmo tempo em que destaca a necessidade de reavaliar o método de tradução de ida e volta como uma técnica automática promissora para reduzir a precisão da atribuição de autoria.

Haining Wang, Patrick Juola, Allen Riddell2026-03-04💬 cs.CL

Part-of-Speech Tagger for Bodo Language using Deep Learning approach

Este artigo apresenta o desenvolvimento do BodoBERT, o primeiro modelo de linguagem para a língua Bodo, e um modelo de ensemble baseado em aprendizado profundo para o reconhecimento de classes gramaticais (POS) que alcança um F1-score de 0,8041, preenchendo uma lacuna significativa no processamento de linguagem natural para línguas de recursos limitados.

Dhrubajyoti Pathak, Sanjib Narzary, Sukumar Nandi + 1 more2026-03-04🤖 cs.AI

Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews

Este estudo apresenta um modelo de máxima verossimilhança para estimar que entre 6,5% e 16,9% do texto em revisões de conferências de IA (como ICLR 2024 e NeurIPS 2023) foi substancialmente modificado ou gerado por LLMs, revelando uma correlação entre o uso dessas ferramentas e fatores como baixa confiança do revisor, submissão próxima ao prazo e menor disposição para responder a réplicas dos autores.

Weixin Liang, Zachary Izzo, Yaohui Zhang + 9 more2026-03-04🤖 cs.AI

Causal Effects of Trigger Words in Social Media Discussions: A Large-Scale Case Study about UK Politics on Reddit

Este estudo analisa mais de 100 milhões de comentários no Reddit sobre política britânica e conclui que o uso de "palavras-gatilho" — termos que desafiam a percepção do que é justo ou normal — está associado a um aumento significativo no engajamento e na polarização, gerando respostas mais negativas, furiosas e hostis.

Dimosthenis Antypas, Christian Arnold, Nedjma Ousidhoum + 2 more2026-03-04💬 cs.CL

NutriBench: A Dataset for Evaluating Large Language Models on Nutrition Estimation from Meal Descriptions

O artigo apresenta o NutriBench, o primeiro conjunto de dados público com descrições de refeições verificadas por humanos para avaliar a capacidade de Grandes Modelos de Linguagem (LLMs) na estimativa nutricional, demonstrando que, embora ofereçam previsões comparáveis às de nutricionistas profissionais, eles são significativamente mais rápidos e possuem potencial para melhorar os resultados de saúde, apesar dos desafios existentes.

Andong Hua, Mehak Preet Dhaliwal, Laya Pullela + 2 more2026-03-04🤖 cs.AI

The Price of Prompting: Profiling Energy Use in Large Language Models Inference

Este artigo apresenta o MELODI, um framework e conjunto de dados inovadores para monitorar e analisar o consumo energético na inferência de modelos de linguagem grandes, revelando disparidades significativas na eficiência energética em relação aos atributos dos prompts e destacando a necessidade de otimização para um futuro sustentável.

Erik Johannes Husom, Arda Goknil, Lwin Khin Shar + 1 more2026-03-04🤖 cs.AI

BA-LoRA: Bias-Alleviating Low-Rank Adaptation to Mitigate Catastrophic Inheritance in Large Language Models

O artigo apresenta o BA-LoRA, um método de adaptação de baixo rank que mitiga a "Herança Catastrófica" em modelos de linguagem grandes ao decompor o problema em três desafios e aplicar regularizadores específicos para preservar o conhecimento, enriquecer as representações e reduzir o viés, superando as variantes atuais de LoRA em desempenho e robustez.

Yupeng Chang, Yi Chang, Yuan Wu2026-03-04💬 cs.CL

Automated Coding of Communications in Collaborative Problem-solving Tasks Using ChatGPT

Este estudo demonstra que o ChatGPT pode automatizar a codificação de dados de comunicação em tarefas de resolução colaborativa de problemas com um nível satisfatório, embora seu desempenho varie conforme o modelo, o framework de codificação e as características da tarefa, oferecendo assim orientações práticas para a avaliação escalável de habilidades do século XXI.

Jiangang Hao, Wenju Cui, Patrick Kyllonen + 3 more2026-03-04💬 cs.CL