Advancing Problem-Based Learning in Biomedical Engineering in the Era of Generative AI

Este estudo de caso de três anos no Georgia Tech e na Emory University demonstra que a implementação de uma estrutura avançada de Aprendizagem Baseada em Problemas (PBL), adaptada para o ensino de IA biomédica e apoiada por IA generativa, superou desafios educacionais e resultou em melhorias mensuráveis nos resultados de aprendizagem, incluindo alta produtividade de pesquisa e desenvolvimento de métodos computacionais inovadores.

Micky C. Nnamdi, J. Ben Tamo, Benoit Marteau + 2 more2026-03-06💻 cs

Assessing the Impact of Code Changes on the Fault Localizability of Large Language Models

Este artigo apresenta uma investigação empírica em larga escala que revela que a capacidade de modelos de linguagem grandes (LLMs) de localizar falhas em código é altamente frágil a mutações semânticas, indicando que seu raciocínio depende excessivamente de pistas sintáticas irrelevantes em vez de compreender a lógica profunda do programa.

Sabaat Haroon, Ahmad Faraz Khan, Ahmad Humayun + 5 more2026-03-06💻 cs

Enhancing multimodal analogical reasoning with Logic Augmented Generation

Este artigo apresenta um framework de Geração Aumentada por Lógica (LAG) que combina grafos de conhecimento semântico e heurísticas de prompts para aprimorar o raciocínio analógico multimodal e a detecção de metáforas, superando as bases atuais e oferecendo processos de raciocínio mais explicáveis, embora ainda enfrente desafios em metáforas específicas de domínio.

Anna Sofia Lippolis, Andrea Giovanni Nuzzolese, Aldo Gangemi2026-03-06💻 cs

Balancing Progress and Safety: A Novel Risk-Aware Objective for RL in Autonomous Driving

Este trabalho propõe uma nova função de recompensa hierárquica e normalizada para Aprendizado por Reforço em direção autônoma, incorporando um objetivo consciente de risco baseado em uma função elipsoidal e conceitos de RSS, que reduz as colisões em 21% e melhora o progresso da rota em cenários de interseção não sinalizada.

Ahmed Abouelazm, Jonas Michel, Helen Gremmelmaier + 3 more2026-03-06💻 cs

Boundary-Guided Trajectory Prediction for Road Aware and Physically Feasible Autonomous Driving

Este artigo propõe um novo framework de previsão de trajetória para veículos autônomos que, ao formular o problema como uma regressão restrita guiada por limites viários e perfis de aceleração, garante previsões fisicamente viáveis e robustas, eliminando drasticamente trajetórias fora da pista mesmo em cenários adversos.

Ahmed Abouelazm, Mianzhi Liu, Christian Hubschneider + 3 more2026-03-06💻 cs

Automatic Curriculum Learning for Driving Scenarios: Towards Robust and Efficient Reinforcement Learning

Este artigo propõe um framework de aprendizado de currículo automático que gera dinamicamente cenários de direção com complexidade adaptativa baseada nas capacidades do agente, superando as limitações de métodos fixos e de randomização de domínio para alcançar maior robustez, eficiência e generalização no treinamento de agentes de direção autônoma.

Ahmed Abouelazm, Tim Weinstein, Tim Joseph + 2 more2026-03-06💻 cs

ShIOEnv: A Command Evaluation Environment for Grammar-Constrained Synthesis and Execution Behavior Modeling

O artigo apresenta o ShIOEnv, um ambiente de shell Bash compatível com Gymnasium que utiliza síntese baseada em gramática e um sinal de irreduzibilidade auto-supervisionado para gerar 2,1 milhões de pares de entrada-saída, permitindo que modelos aprendam com maior precisão o comportamento de execução de comandos reais, superando as abordagens anteriores livres de execução.

Jarrod Ragsdale, Rajendra Boppana2026-03-06💻 cs

VTool-R1: VLMs Learn to Think with Images via Reinforcement Learning on Multimodal Tool Use

O artigo apresenta o VTool-R1, um framework pioneiro que utiliza aprendizado por reforço para treinar modelos de linguagem e visão (VLMs) a raciocinar de forma multimodal, intercalando texto e etapas visuais intermediárias geradas por ferramentas de edição de imagem, melhorando assim o desempenho em tarefas complexas de questionamento visual.

Mingyuan Wu, Jingcheng Yang, Jize Jiang + 6 more2026-03-06💻 cs

SealQA: Raising the Bar for Reasoning in Search-Augmented Language Models

O artigo apresenta o SealQA, um novo benchmark desafiador que avalia modelos de linguagem aumentados por busca em cenários de resultados conflitantes e ruidosos, revelando que mesmo os modelos de ponta atuais falham em tarefas de raciocínio factual e de contexto longo, com desempenho que não melhora consistentemente com o aumento de recursos computacionais.

Thinh Pham, Nguyen Nguyen, Pratibha Zunjare + 3 more2026-03-06💻 cs

RoboPARA: Dual-Arm Robot Planning with Parallel Allocation and Recomposition Across Tasks

O artigo apresenta o RoboPARA, um novo framework baseado em modelos de linguagem que otimiza o planejamento de tarefas em robôs de dois braços através de geração de candidatos baseada em grafos de dependência e reotimização para paralelismo, validado pelo novo conjunto de dados X-DAPT e demonstrando superioridade em eficiência e confiabilidade em cenários complexos.

Shiying Duan, Pei Ren, Nanxiang Jiang + 5 more2026-03-06💻 cs

HSG-12M: A Large-Scale Benchmark of Spatial Multigraphs from the Energy Spectra of Non-Hermitian Crystals

Este artigo apresenta o HSG-12M, o primeiro grande conjunto de dados de multigrafos espaciais contendo 16,7 milhões de grafos espectrais de Hamiltonianos de cristais não hermitianos, gerados automaticamente pela ferramenta Poly2Graph para superar a escassez de dados em física quântica e impulsionar o aprendizado de máquina geométrico.

Xianquan Yan, Hakan Akgün, Kenji Kawaguchi + 2 more2026-03-06🔬 cond-mat.mes-hall

InterActHuman: Multi-Concept Human Animation with Layout-Aligned Audio Conditions

O InterActHuman é um novo framework que supera as limitações dos métodos existentes ao permitir a animação de vídeo de alta qualidade com múltiplos conceitos e interações humanas, garantindo o controle preciso de cada identidade através do alinhamento espacial e temporal de condições multimodais, como áudio e imagens de referência, a regiões específicas do vídeo.

Zhenzhi Wang, Jiaqi Yang, Jianwen Jiang + 7 more2026-03-06💻 cs