Entropic-Time Inference: Self-Organizing Large Language Model Decoding Beyond Attention

O artigo propõe a "inferência de tempo entrópico", uma nova arquitetura de auto-organização que substitui a progressão linear de tokens por um processo termodinâmico inteligente, onde o agendamento, a esparsificação da atenção e a temperatura de amostragem são controlados unificadamente pelo fluxo de incerteza para otimizar a alocação de recursos computacionais em modelos de linguagem grandes.

Andrew Kiruluta2026-03-05🤖 cs.LG

Fragile Thoughts: How Large Language Models Handle Chain-of-Thought Perturbations

Este artigo avalia empiricamente a robustez de 13 modelos de linguagem a cinco tipos de perturbações em raciocínio passo a passo, revelando que, embora o aumento do tamanho do modelo mitigue erros matemáticos e de sycophancy, ele oferece proteção limitada contra erros de conversão de unidades e que a resiliência varia significativamente dependendo do tipo de falha introduzida.

Ashwath Vaithinathan Aravindan, Mayank Kejriwal2026-03-05🤖 cs.AI

GreenPhase: A Green Learning Approach for Earthquake Phase Picking

O artigo apresenta o GreenPhase, uma abordagem de aprendizado verde e interpretável baseada em aprendizado de Green que, ao eliminar a retropropagação e utilizar um design feed-forward multi-resolução, alcança desempenho excepcional na detecção e escolha de fases sísmicas com uma redução de 83% nos custos computacionais em comparação aos modelos de última geração.

Yixing Wu, Shiou-Ya Wang, Dingyi Nie + 5 more2026-03-05🤖 cs.AI

[Re] FairDICE: A Gap Between Theory And Practice

Este estudo de replicação do método FairDICE para aprendizado por reforço offline multiobjetivo revela que, embora suas alegações teóricas sejam válidas, um erro de implementação reduzia o algoritmo a comportamento padrão em ambientes contínuos e a falta de especificação de hiperparâmetros exigiu correções para demonstrar sua eficácia em cenários complexos.

Peter Adema, Karim Galliamov, Aleksey Evstratovskiy + 1 more2026-03-05🤖 cs.LG