Explainable machine learning for predicting shellfish toxicity in the Adriatic Sea using long-term monitoring data of HABs

Este estudo aplica técnicas de aprendizado de máquina explicável a um conjunto de dados de 28 anos no Golfo de Trieste para prever com precisão a toxicidade em mexilhões causada por florações de algas nocivas, identificando espécies específicas de dinoflagelados e fatores ambientais como preditores-chave para melhorar os sistemas de alerta precoce e a aquicultura sustentável.

Martin Marzidovšek, Janja Francé, Vid Podpečan + 3 more2026-03-12🤖 cs.AI

Synthesizing Interpretable Control Policies through Large Language Model Guided Search

Este artigo propõe um método inovador que utiliza Grandes Modelos de Linguagem (LLMs) para guiar a busca evolutiva de políticas de controle interpretáveis, representadas como programas em linguagens padrão como Python, permitindo a geração de comportamentos complexos em sistemas dinâmicos com maior transparência e facilidade de ajuste humano em comparação com redes neurais tradicionais.

Carlo Bosio, Mark W. Mueller2026-03-12⚡ eess

EoRA: Fine-tuning-free Compensation for Compressed LLM with Eigenspace Low-Rank Approximation

O artigo apresenta o EoRA, um método sem ajuste fino que utiliza aproximação de baixo posto no espaço de autovalores e um kernel CUDA otimizado para recuperar com eficácia a precisão de Grandes Modelos de Linguagem comprimidos, superando métodos anteriores e permitindo um equilíbrio flexível entre acurácia e sobrecarga computacional.

Shih-Yang Liu, Maksim Khadkevich, Nai Chit Fung, Charbel Sakr, Chao-Han Huck Yang, Chien-Yi Wang, Saurav Muralidharan, Hongxu Yin, Kwang-Ting Cheng, Jan Kautz, Yu-Chiang Frank Wang, Pavlo Molchanov, Min-Hung Chen2026-03-12💬 cs.CL

Talking like Piping and Instrumentation Diagrams (P&IDs)

Este trabalho propõe uma metodologia que integra Diagramas de Tubulação e Instrumentação (P&IDs) representados como grafos de conhecimento ao modelo DEXPI com Grandes Modelos de Linguagem (LLMs) via Graph-RAG, permitindo a interação por linguagem natural para melhorar a recuperação de dados, reduzir alucinações e auxiliar engenheiros em tarefas diárias e estudos de HAZOP.

Achmad Anggawirya Alimin, Dominik P. Goldstein, Lukas Schulze Balhorn + 1 more2026-03-12🤖 cs.AI

SCAM: A Real-World Typographic Robustness Evaluation for Multimodal Foundation Models

Este artigo apresenta o SCAM, o maior e mais diversificado conjunto de dados de ataques tipográficos do mundo real, demonstrando que tais ataques comprometem significativamente o desempenho dos modelos fundacionais multimodais e fornecendo insights sobre como a arquitetura do modelo e o uso de backbones de linguagem maiores podem mitigar essa vulnerabilidade.

Justus Westerhoff, Erblina Purelku, Jakob Hackstein + 4 more2026-03-12🤖 cs.AI

Scalable Multi-Task Learning through Spiking Neural Networks with Adaptive Task-Switching Policy for Intelligent Autonomous Agents

O artigo apresenta o SwitchMT, uma metodologia inovadora que utiliza Redes Neurais de Spiking com uma política de alternância de tarefas adaptativa para superar a interferência entre tarefas e permitir a aprendizagem multi-tarefa escalável e eficiente em agentes autônomos com recursos limitados.

Rachmad Vidya Wicaksana Putra, Avaneesh Devkota, Muhammad Shafique2026-03-12🤖 cs.AI

REI-Bench: Can Embodied Agents Understand Vague Human Instructions in Task Planning?

O artigo apresenta o REI-Bench, o primeiro benchmark para planejamento de tarefas robóticas que modela instruções vagas baseadas em expressões referenciais, demonstrando que essa ambiguidade degrada significativamente o desempenho dos modelos e propondo uma abordagem de "cognição contextual orientada a tarefas" para gerar instruções claras e melhorar a acessibilidade para usuários não especialistas, como idosos e crianças.

Chenxi Jiang, Chuhao Zhou, Jianfei Yang2026-03-12💬 cs.CL

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

Este artigo apresenta uma revisão semiautomatizada e orientada por dados de pesquisas sobre as limitações de modelos de linguagem grandes (LLLMs) entre 2022 e 2025, identificando um crescimento acelerado do tema e mapeando suas principais tendências, como raciocínio, alucinação e segurança, por meio da análise de um vasto corpus de publicações.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

Este artigo propõe um quadro de raciocínio abduzido baseado em consistência que integra previsões de múltiplos modelos pré-treinados para mitigar a degradação de desempenho em ambientes novos, utilizando regras lógicas para selecionar um subconjunto de previsões que maximize a cobertura mantendo inconsistências abaixo de um limite, resultando em ganhos significativos de precisão e recall em comparação com modelos individuais e ensembles padrão.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI

Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions

O artigo apresenta o ReLIFT, uma abordagem inovadora que intercala aprendizado por reforço (RL) e ajuste fino supervisionado (SFT) online para superar as limitações do RL ao adquirir novos conhecimentos e padrões de raciocínio, demonstrando melhorias significativas em benchmarks de alto nível com uso reduzido de dados.

Lu Ma, Hao Liang, Meiyi Qiang, Lexiang Tang, Xiaochen Ma, Zhen Hao Wong, Junbo Niu, Chengyu Shen, Runming He, Yanhao Li, Bin Cui, Wentao Zhang2026-03-12🤖 cs.AI

Locality-aware Parallel Decoding for Efficient Autoregressive Image Generation

Este artigo apresenta a Decodificação Paralela Consciente da Localidade (LPD), uma nova abordagem que acelera significativamente a geração autoregressiva de imagens ao reduzir drasticamente o número de passos de inferência e a latência, mantendo a qualidade visual através de um modelo de geração paralelizada flexível e de uma ordenação de geração otimizada.

Zhuoyang Zhang, Luke J. Huang, Chengyue Wu, Shang Yang, Kelly Peng, Yao Lu, Song Han2026-03-12🤖 cs.AI

Technological folie à deux: Feedback Loops Between AI Chatbots and Mental Illness

O artigo alerta que a interação entre chatbots de IA e usuários com condições de saúde mental pode criar ciclos de feedback perigosos que exacerbam a desestabilização de crenças e o isolamento social, exigindo uma resposta coordenada entre práticas clínicas, desenvolvimento de IA e regulamentação para mitigar esses riscos emergentes de saúde pública.

Sebastian Dohnány, Zeb Kurth-Nelson, Eleanor Spens, Lennart Luettgau, Alastair Reid, Iason Gabriel, Christopher Summerfield, Murray Shanahan, Matthew M Nour2026-03-12🧬 q-bio