Tracking Cancer Through Text: Longitudinal Extraction From Radiology Reports Using Open-Source Large Language Models

Este artigo apresenta um pipeline totalmente aberto e localmente implantável, baseado no modelo de linguagem \texttt{qwen2.5-72b} e no framework \texttt{llm\_extractinator}, que extrai com alta precisão informações longitudinais sobre carga tumoral e resposta ao tratamento de relatórios de radiologia, demonstrando a viabilidade de modelos de linguagem abertos para tarefas oncológicas que exigem privacidade e reprodutibilidade.

Luc Builtjes, Alessa HeringWed, 11 Ma💬 cs.CL

Automatic Cardiac Risk Management Classification using large-context Electronic Patients Health Records

Este estudo apresenta um framework de classificação automatizada para o gerenciamento de risco cardiovascular em idosos, demonstrando que uma arquitetura Transformer personalizada supera tanto métodos tradicionais quanto modelos de linguagem generativos ao analisar registros de saúde eletrônicos não estruturados de longo contexto.

Jacopo Vitale, David Della Morte, Luca Bacco, Mario Merone, Mark de Groot, Saskia Haitjema, Leandro Pecchia, Bram van EsWed, 11 Ma🤖 cs.AI

ActiveUltraFeedback: Efficient Preference Data Generation using Active Learning

O artigo apresenta o ActiveUltraFeedback, um pipeline de aprendizado ativo que utiliza estimativas de incerteza e métodos inovadores de seleção de pares de respostas para gerar dados de preferência de alta qualidade, permitindo o alinhamento eficiente de modelos de linguagem com até seis vezes menos dados anotados em comparação com baselines estáticas.

Davit Melikidze, Marian Schneider, Jessica Lam, Martin Wertich, Ido Hakimi, Barna Pásztor, Andreas KrauseWed, 11 Ma🤖 cs.AI

Mousse: Rectifying the Geometry of Muon with Curvature-Aware Preconditioning

O artigo apresenta o Mousse, um novo otimizador que melhora o método Muon ao incorporar a estimativa estrutural do Shampoo para criar um sistema de coordenadas branqueado, permitindo atualizações espectrais adaptativas à curvatura que reduzem o número de etapas de treinamento em cerca de 12% com custo computacional insignificante.

Yechen Zhang, Shuhao Xing, Junhao Huang, Kai Lv, Yunhua Zhou, Xipeng Qiu, Qipeng Guo, Kai ChenWed, 11 Ma🤖 cs.AI

Evaluation of LLMs in retrieving food and nutritional context for RAG systems

Este artigo avalia a eficácia de quatro Grandes Modelos de Linguagem (LLMs) em traduzir consultas em linguagem natural para filtros de metadados estruturados em um sistema RAG para dados nutricionais, concluindo que, embora sejam altamente precisos para consultas expressíveis, enfrentam desafios significativos ao lidar com restrições não representáveis no formato de metadados.

Maks Požarnik Vavken, Matevž Ogrinc, Tome Eftimov, Barbara Koroušic SeljakWed, 11 Ma💬 cs.CL

MUGEN: Evaluating and Improving Multi-audio Understanding of Large Audio-Language Models

O artigo apresenta o MUGEN, um benchmark abrangente que revela as limitações dos Modelos Grandes de Áudio-Linguagem na compreensão de múltiplos áudios simultâneos e demonstra que estratégias de treinamento sem supervisão, como a Autoconsistência Permutacional de Áudio combinada com Cadeia de Pensamento, podem melhorar significativamente o desempenho nesses cenários.

Chih-Kai Yang, Yun-Shao Tsai, Yu-Kai Guo, Ping-Le Tsai, Yen-Ting Piao, Hung-Wei Chen, Ting-Lin Hsiao, Yun-Man Hsu, Ke-Han Lu, Hung-yi LeeWed, 11 Ma🤖 cs.AI

EXPLORE-Bench: Egocentric Scene Prediction with Long-Horizon Reasoning

O artigo apresenta o EXPLORE-Bench, um novo benchmark derivado de vídeos em primeira pessoa para avaliar a capacidade de modelos de linguagem multimodal em prever cenas finais após sequências longas de ações, revelando uma lacuna significativa em relação ao desempenho humano e demonstrando que a decomposição passo a passo das ações pode melhorar o raciocínio a longo prazo, embora com custos computacionais adicionais.

Chengjun Yu, Xuhan Zhu, Chaoqun Du, Pengfei Yu, Wei Zhai, Yang Cao, Zheng-Jun ZhaWed, 11 Ma🤖 cs.AI

EPIC-EuroParl-UdS: Information-Theoretic Perspectives on Translation and Interpreting

Este artigo apresenta uma versão atualizada e combinada dos corpora EPIC-UdS e EuroParl-UdS, corrigindo erros e adicionando novas camadas de anotação para apoiar pesquisas sobre variações linguísticas e tradução, incluindo uma nova análise ilustrativa que valida os dados falados e avalia modelos de IA na previsão de partículas de preenchimento em interpretação.

Maria Kunilovskaya, Christina PollkläsenerWed, 11 Ma💬 cs.CL

One-Eval: An Agentic System for Automated and Traceable LLM Evaluation

O artigo apresenta o One-Eval, um sistema agêntico que automatiza e torna rastreável a avaliação de modelos de linguagem grandes, convertendo solicitações em linguagem natural em fluxos de trabalho executáveis e personalizáveis para reduzir o esforço manual e aumentar a reprodutibilidade em ambientes industriais.

Chengyu Shen, Yanheng Hou, Minghui Pan, Runming He, Zhen Hao Wong, Meiyi Qiang, Zhou Liu, Hao Liang, Peichao Lai, Zeang Sheng, Wentao ZhangWed, 11 Ma💬 cs.CL

Chow-Liu Ordering for Long-Context Reasoning in Chain-of-Agents

Este trabalho propõe a utilização de árvores de Chow-Liu para determinar uma ordem de processamento de chunks que priorize dependências fortes, demonstrando empiricamente que essa abordagem reduz a perda de informação e supera métodos de ordenação padrão em tarefas de raciocínio de longo contexto com agentes em cadeia.

Naman Gupta, Vaibhav Singh, Arun Iyer, Kirankumar Shiragur, Pratham Grover, Ramakrishna B. Bairi, Ritabrata Maiti, Sankarshan Damle, Shachee Mishra Gupta, Rishikesh Maurya, Vageesh D. CWed, 11 Ma💬 cs.CL