AI-Assisted Moot Courts: Simulating Justice-Specific Questioning in Oral Arguments

Este artigo propõe e avalia um novo framework de duas camadas para medir a eficácia de modelos de IA na simulação de questionamentos específicos de juízes em tribunais simulados, utilizando transcrições do Supremo Tribunal dos EUA e revelando que, embora as perguntas geradas sejam realistas e cobrem bem questões legais substantivas, os modelos ainda apresentam limitações significativas como baixa diversidade e sycophancy que só são detectadas por essa abordagem de avaliação rigorosa.

Kylie Zhang, Nimra Nadeem, Lucia Zheng + 2 more2026-03-06💻 cs

Are Multimodal LLMs Ready for Surveillance? A Reality Check on Zero-Shot Anomaly Detection in the Wild

Este estudo avalia a viabilidade de modelos de linguagem multimodal para detecção de anomalias em vídeo em cenários reais, revelando que, embora instruções específicas possam melhorar significativamente o desempenho, os modelos apresentam um viés conservador que limita severamente a recall, tornando-os ainda inadequados para aplicações de vigilância sem ajustes adicionais.

Shanle Yao, Armin Danesh Pazho, Narges Rashvand + 1 more2026-03-06💻 cs

Evaluating the Search Agent in a Parallel World

Este artigo apresenta o Mind-ParaWorld, um novo framework e benchmark interativo que avalia Agentes de Pesquisa em um mundo paralelo simulado para superar os desafios de obsolescência, custo e ambiguidade de atribuição dos métodos de avaliação tradicionais, revelando que as limitações atuais desses agentes residem principalmente na coleta de evidências em ambientes desconhecidos e na tomada de decisões sobre quando parar a busca.

Jiawei Chen, Xintian Shen, Lihao Zheng + 7 more2026-03-06💻 cs

Stacked from One: Multi-Scale Self-Injection for Context Window Extension

O artigo apresenta o SharedLLM, uma arquitetura inovadora que estende a janela de contexto de modelos de linguagem para além de 128K tokens com alta eficiência e precisão, utilizando um mecanismo de "auto-injeção" que empilha dois modelos curtos idênticos para compressão e decodificação de informações em múltiplas escalas sem a necessidade de custosos treinamentos contínuos.

Wei Han, Pan Zhou, Shuicheng Yan2026-03-06💻 cs

Evaluating GPT-5 as a Multimodal Clinical Reasoner: A Landscape Commentary

Este comentário de panorama avalia a família GPT-5 como raciocinador clínico multimodal, demonstrando avanços significativos na síntese de dados textuais e de imagem que superam o GPT-4o, mas revelando que, embora represente um progresso em direção ao raciocínio integrado, os modelos generalistas ainda não substituem sistemas especializados em tarefas críticas de percepção como neurorradiologia e mamografia.

Alexandru Florea, Shansong Wang, Mingzhe Hu + 5 more2026-03-06💻 cs

DSA-SRGS: Super-Resolution Gaussian Splatting for Dynamic Sparse-View DSA Reconstruction

Este artigo apresenta o DSA-SRGS, o primeiro framework de gaussian splatting com super-resolução para reconstrução dinâmica de angiografia por subtração digital (DSA) a partir de vistas esparsas, que integra aprendizado de textura multi-fidelidade e densificação radiativa sub-pixel para recuperar detalhes vasculares finos e superar as limitações de resolução das abordagens existentes.

Shiyu Zhang, Zhicong Wu, Huangxuan Zhao + 7 more2026-03-06💻 cs

TSEmbed: Unlocking Task Scaling in Universal Multimodal Embeddings

O artigo apresenta o TSEmbed, um framework de embeddings multimodais universal que combina Mixture-of-Experts e LoRA para resolver conflitos de tarefas, introduz uma amostragem negativa consciente de especialistas (EANS) para aprimorar a discriminação semântica e adota um paradigma de treinamento em duas etapas, alcançando desempenho superior em benchmarks e dados industriais.

Yebo Wu, Feng Liu, Ziwei Xie + 4 more2026-03-06💻 cs

Breaking Contextual Inertia: Reinforcement Learning with Single-Turn Anchors for Stable Multi-Turn Interaction

O artigo apresenta o RLSTA, uma abordagem de Aprendizado por Reforço que utiliza âncoras de resposta de turno único para superar a "inércia contextual" em LLMs, permitindo que eles integrem corretamente novas informações e se auto-calibrem em interações multi-turno, superando métodos de ajuste fino tradicionais e demonstrando forte generalização entre domínios.

Xingwu Chen, Zhanqiu Zhang, Yiwen Guo + 1 more2026-03-06💻 cs