NeuralOS: Towards Simulating Operating Systems via Neural Generative Models

O artigo apresenta o NeuralOS, um framework neural que simula interfaces gráficas de sistemas operacionais prevendo quadros de tela em resposta a interações de usuário, combinando uma rede neural recorrente para rastrear o estado do sistema com um renderizador difusivo, demonstrando capacidade de gerar interfaces realistas e até simular aplicações não instaladas a partir de dados sintéticos.

Luke Rivard, Sun Sun, Hongyu Guo, Wenhu Chen, Yuntian DengFri, 13 Ma💬 cs.CL

TRACE: AI-Assisted Assessment of Collaborative Projects in Computer Science Education

O artigo apresenta o TRACE, um framework semiautomático baseado em IA que utiliza mineração de repositórios e análise de comunicação para avaliar de forma justa e escalável tanto a qualidade dos projetos quanto as contribuições individuais em trabalhos colaborativos de ciência da computação, demonstrando alta concordância com avaliações de instrutores e maior satisfação dos alunos.

Songmei Yu, Andrew ZagulaFri, 13 Ma🤖 cs.AI

Agentic Explainable Artificial Intelligence (Agentic XAI) Approach To Explore Better Explanation

Este estudo propõe uma estrutura de IA Explicável Agente (Agentic XAI) que combina explicações SHAP com refinamento iterativo por modelos de linguagem grandes para gerar recomendações agrícolas mais claras e confiáveis, demonstrando que a otimização da qualidade das explicações requer uma parada estratégica para evitar a degradação causada por iterações excessivas.

Tomoaki Yamaguchi, Yutong Zhou, Masahiro Ryo, Keisuke KatsuraFri, 13 Ma🤖 cs.AI

Learning Through Dialogue: Engagement and Efficacy Matter More Than Explanations

O estudo demonstra que a eficácia do aprendizado com LLMs em questões socio-políticas depende mais da interação e do engajamento do usuário do que da qualidade das explicações, sendo que ganhos de conhecimento e confiança variam conforme a eficácia política e a capacidade do usuário de refletir e resolver incertezas durante o diálogo.

Shaz Furniturewala, Gerard Christopher Yeo, Kokil JaidkaFri, 13 Ma💬 cs.CL

Evaluating Zero-Shot and One-Shot Adaptation of Small Language Models in Leader-Follower Interaction

Este artigo avalia a adaptação de modelos de linguagem pequenos (SLMs) para a classificação de papéis em interações líder-seguidor, demonstrando que o ajuste fino zero-shot do modelo Qwen2.5-0.5B oferece um desempenho robusto e de baixa latência para dispositivos de borda, embora enfrente desafios de degradação em modos de um único exemplo devido a limitações de capacidade arquitetural.

Rafael R. Baptista, André de Lima Salgado, Ricardo V. Godoy, Marcelo Becker, Thiago Boaventura, Gustavo J. G. LahrFri, 13 Ma⚡ eess

"I followed what felt right, not what I was told": Autonomy, Coaching, and Recognizing Bias Through AI-Mediated Dialogue

Este estudo demonstra que diálogos mediados por IA são mais eficazes do que a leitura passiva para ajudar os participantes a reconhecerem microagressões capacitistas, revelando que, embora as sugestões de viés aumentem a discriminação entre situações, as abordagens inclusivas ou sem orientação são preferidas e geram um equilíbrio mais saudável na percepção dos usuários.

Atieh Taheri, Hamza El Alaoui, Patrick Carrington, Jeffrey P. BighamFri, 13 Ma🤖 cs.AI

Managing Cognitive Bias in Human Labeling Operations for Rare-Event AI: Evidence from a Field Experiment

Este artigo apresenta um experimento de campo demonstrando que equilibrar a prevalência de feedback e solicitar probabilidades, combinados com recalibração pós-processamento, mitigam viéses cognitivos em anotações humanas de eventos raros, melhorando significativamente a precisão e a confiabilidade de modelos de IA downstream.

Gunnar P. Epping, Andrew Caplin, Erik Duhaime, William R. Holmes, Daniel Martin, Jennifer S. TruebloodFri, 13 Ma💰 q-fin

AI Knows What's Wrong But Cannot Fix It: Helicoid Dynamics in Frontier LLMs Under High-Stakes Decisions

O artigo descreve a "dinâmica helicoidal", um regime de falha observado em sete modelos de linguagem de ponta onde, sob alta pressão e incerteza, os sistemas reconhecem competentemente seus próprios erros e loops, mas continuam a reproduzi-los em níveis mais sofisticados, priorizando o conforto sobre a confiabilidade quando a verificação é impossível.

Alejandro R JadadFri, 13 Ma🤖 cs.AI

A technology-oriented mapping of the language and translation industry: Analysing stakeholder values and their potential implication for translation pedagogy

Este artigo analisa como os valores humanos e tecnológicos são negociados na indústria de tradução automatizada, revelando que a adaptabilidade se torna uma competência central que permite a coexistência interdependente entre a eficiência tecnológica e o julgamento profissional, com implicações diretas para a pedagogia da tradução.

María Isabel Rivas Ginel, Janiça Hackenbuchner, Alina Secar\u{a}, Ralph Krüger, Caroline RossiFri, 13 Ma💬 cs.CL

Modeling Trial-and-Error Navigation With a Sequential Decision Model of Information Scent

Este artigo propõe um modelo de tomada de decisão sequencial que estende o conceito de "cheiro de informação" para explicar o comportamento de navegação por tentativa e erro, demonstrando que usuários, sob restrições de memória e tempo, inspecionam estrategicamente links e cometem erros previsíveis ao priorizar o "suficiente" em vez de analisar páginas inteiras.

Xiaofu Jin, Yunpeng Bai, Antti OulasvirtaFri, 13 Ma🤖 cs.LG

An Intent of Collaboration: On Agencies between Designers and Emerging (Intelligent) Technologies

Este artigo relata um estudo de três meses no qual designers colaboraram com um modelo de linguagem (LLLM) para investigar como a dinâmica de agência entre humanos e IA pode levar à perda de criatividade, propondo que a recuperação dessa agência exige introspecção sobre o processo criativo, compreensão estrutural da tecnologia e ajustes deliberados na relação de trabalho.

Pei-Ying Lin, Julie Heij, Iris Borst, Britt Joosten, Kristina Andersen, Wijnand IJsselsteijnFri, 13 Ma🤖 cs.AI