HCT-QA: A Benchmark for Question Answering on Human-Centric Tables

Este artigo apresenta o HCT-QA, um novo benchmark abrangente para avaliação de modelos de linguagem e visão na resposta a perguntas sobre tabelas centradas no humano (HCTs), oferecendo um vasto conjunto de dados reais e sintéticos que supera as limitações das soluções existentes e demonstra ganhos significativos de desempenho através de ajuste fino.

Mohammad S. Ahmad, Zan A. Naeem, Michaël Aupetit, Ahmed Elmagarmid, Mohamed Eltabakh, Xiaosong Ma, Mourad Ouzzani, Chaoyi Ruan, Hani Al-SayehMon, 09 Ma🤖 cs.AI

GaiaFlow: Semantic-Guided Diffusion Tuning for Carbon-Frugal Search

O artigo apresenta o GaiaFlow, um framework inovador que utiliza ajuste de difusão guiado semanticamente e protocolos de saída adaptativa para otimizar a busca neural, reduzindo significativamente a pegada de carbono enquanto mantém alta precisão em diversas infraestruturas computacionais.

Rong Fu, Jia Yee Tan, Chunlei Meng, Shuo Yin, Xiaowen Ma, Wangyu Wu, Muge Qi, Guangzhen Yao, Zhaolu Kang, Zeli Su, Simon FongMon, 09 Ma🤖 cs.LG

AutothinkRAG: Complexity-Aware Control of Retrieval-Augmented Reasoning for Image-Text Interaction

O artigo apresenta o AutoThinkRAG, um framework que melhora a resposta a perguntas em documentos complexos combinando um roteador de complexidade de consultas com uma arquitetura de decuplagem funcional que utiliza um modelo visual pequeno para interpretação e um LLM para raciocínio, alcançando desempenho superior ao estado da arte com custos reduzidos.

Jiashu Yang, Chi Zhang, Abudukelimu Wuerkaixi, Xuxin Cheng, Cao Liu, Ke Zeng, Xu Jia, Xunliang CaiMon, 09 Ma💻 cs

CBR-to-SQL: Rethinking Retrieval-based Text-to-SQL using Case-based Reasoning in the Healthcare Domain

O artigo apresenta o CBR-to-SQL, um novo framework baseado em Raciocínio Baseado em Casos que supera as limitações dos métodos RAG tradicionais na tradução de linguagem natural para SQL no domínio da saúde, alcançando maior precisão lógica e eficiência amostral ao utilizar um processo de recuperação em duas etapas para lidar com a variabilidade da terminologia médica.

Hung Nguyen, Hans Moen, Pekka MarttinenMon, 09 Ma🤖 cs.AI

The DSA's Blind Spot: Algorithmic Audit of Advertising and Minor Profiling on TikTok

Este estudo revela que, embora o TikTok cumpra formalmente a proibição da DSA de publicidade profilada a menores, a definição restritiva de "anúncio" permite que conteúdos comerciais disfarçados (como marketing de influenciadores) contornem a regulação, resultando numa profilagem algorítmica para menores que é significativamente mais intensa do que a observada em adultos.

Sara Solarova, Matej Mosnar, Matus Tibensky, Jan Jakubcik, Adrian Bindas, Simon Liska, Filip Hossner, Matúš Mesarčík, Ivan SrbaMon, 09 Ma🤖 cs.AI

Balancing Domestic and Global Perspectives: Evaluating Dual-Calibration and LLM-Generated Nudges for Diverse News Recommendation

Este estudo avalia um framework de "nudge" personalizado para diversidade em recomendações de notícias, demonstrando que um algoritmo de calibração dupla eficazmente amplia a exposição e o consumo de notícias domésticas e globais, enquanto a apresentação baseada em LLM tem impacto variável, sugerindo que a exposição longitudinal pode alterar os hábitos de leitura dos usuários em direção a um equilíbrio entre esses temas.

Ruixuan Sun, Matthew Zent, Minzhu Zhao, Thanmayee Boyapati, Xinyi Li, Joseph A. KonstanMon, 09 Ma🤖 cs.AI

ChatShopBuddy: Towards Reliable Conversational Shopping Agents via Reinforcement Learning

O artigo apresenta o ChatShopBuddy, um agente de compras conversacional otimizado por aprendizado por reforço que utiliza o benchmark SmartShopBench, a Modelagem de Recompensa Hierárquica (HRM) e a Otimização de Política Contraste Dinâmica (DCPO) para equilibrar com sucesso métricas objetivas, qualidades subjetivas e eficiência operacional em cenários do mundo real.

Yiruo Cheng, Kelong Mao, Tianhao Li, Jiejun Tan, Ji-Rong Wen, Zhicheng DouMon, 09 Ma💻 cs

Efficient Vector Search in the Wild: One Model for Multi-K Queries

O artigo apresenta o OMEGA, um método de busca aprendida que, ao treinar um modelo base apenas para K=1 e aplicar refinamentos dinâmicos, permite atender consultas de múltiplos valores de K com alta precisão e desempenho, reduzindo significativamente o tempo de latência e os custos de pré-processamento em comparação com métodos existentes.

Yifan Peng, Jiafei Fan, Xingda Wei, Sijie Shen, Rong Chen, Jianning Wang, Xiaojian Luo, Wenyuan Yu, Jingren Zhou, Haibo ChenMon, 09 Ma🤖 cs.LG

MLLMRec-R1: Incentivizing Reasoning Capability in Large Language Models for Multimodal Sequential Recommendation

O artigo propõe o MLLMRec-R1, um framework eficiente e estável baseado em GRPO para recomendação sequencial multimodal, que supera os desafios de custo computacional e inflação de recompensa ao textualizar sinais visuais offline e utilizar uma estratégia de aumento de dados de granularidade mista para melhorar o desempenho de modelos de linguagem multimodal.

Yu Wang, Yonghui Yang, Le Wu, Jiancan Wu, Hefei Xu, Hui LinMon, 09 Ma💻 cs

Efficient, Property-Aligned Fan-Out Retrieval via RL-Compiled Diffusion

O artigo apresenta o R4T, um método que utiliza aprendizado por reforço para sintetizar dados de treinamento e treinar um recuperador baseado em difusão leve, permitindo a recuperação eficiente de conjuntos de itens otimizados para propriedades de alto nível com latência drasticamente reduzida em comparação às abordagens tradicionais.

Pengcheng Jiang, Judith Yue Li, Moonkyung Ryu, R. Lily Hu, Kun Su, Zhong Yi Wan, Liam Hebert, Hao Peng, Jiawei Han, Dima Kuzmin, Craig BoutilierMon, 09 Ma🤖 cs.LG

Tuning-Free LLM Can Build A Strong Recommender Under Sparse Connectivity And Knowledge Gap Via Extracting Intent

O artigo apresenta o IKGR, um sistema de recomendação baseado em LLMs que, sem necessidade de ajuste fino, constrói um grafo de conhecimento centrado em intenções extraídas via RAG para superar desafios de esparsidade e falta de conhecimento, superando métodos tradicionais em cenários de cold-start e itens de cauda longa.

Wenqing Zheng, Noah Fatsi, Daniel Barcklow, Dmitri Kalaev, Steven Yao, Owen Reinert, C. Bayan Bruss, Daniele RosaFri, 13 Ma🤖 cs.AI

Refine-POI: Reinforcement Fine-Tuned Large Language Models for Next Point-of-Interest Recommendation

O artigo apresenta o Refine-POI, um framework que aprimora a recomendação de pontos de interesse (POI) utilizando um modelo de linguagem grande (LLM) ajustado por reforço, o qual resolve problemas de continuidade semântica e fixação de respostas através de uma estratégia de quantização hierárquica para geração de IDs semânticos e otimização baseada em gradiente de política para listas de recomendação top-k.

Peibo Li, Shuang Ao, Hao Xue, Yang Song, Maarten de Rijke, Johan Barthélemy, Tomasz Bednarz, Flora D. SalimFri, 13 Ma🤖 cs.LG