Agentic Explainable Artificial Intelligence (Agentic XAI) Approach To Explore Better Explanation

Questo studio propone un framework di Intelligenza Artificiale Spiegabile Agente (Agentic XAI) che combina SHAP con modelli linguistici su larga scala per iterare e migliorare le spiegazioni tecniche in raccomandazioni agricole, dimostrando che un'ottimizzazione strategica delle iterazioni (early stopping) è fondamentale per massimizzare la qualità e l'utilità pratica evitando il degrado causato da un'eccessiva raffinazione.

Tomoaki Yamaguchi, Yutong Zhou, Masahiro Ryo, Keisuke KatsuraFri, 13 Ma🤖 cs.AI

Evaluating Zero-Shot and One-Shot Adaptation of Small Language Models in Leader-Follower Interaction

Questo studio valuta l'adattamento di modelli linguistici di piccole dimensioni (SLM) per la classificazione dei ruoli nelle interazioni leader-seguace nell'ambito della robotica, dimostrando che il fine-tuning zero-shot offre prestazioni robuste e a bassa latenza, pur evidenziando un degrado delle prestazioni nelle modalità one-shot a causa della maggiore complessità contestuale.

Rafael R. Baptista, André de Lima Salgado, Ricardo V. Godoy, Marcelo Becker, Thiago Boaventura, Gustavo J. G. LahrFri, 13 Ma⚡ eess

"I followed what felt right, not what I was told": Autonomy, Coaching, and Recognizing Bias Through AI-Mediated Dialogue

Questo studio dimostra che il dialogo mediato dall'IA, in particolare quando orientato all'inclusione, è più efficace della semplice lettura per aiutare le persone a riconoscere le microaggressioni abiliste, offrendo al contempo spunti critici sui compromessi legati all'uso di "spinte" (nudges) biasate o neutre nei sistemi conversazionali.

Atieh Taheri, Hamza El Alaoui, Patrick Carrington, Jeffrey P. BighamFri, 13 Ma🤖 cs.AI

Evaluation format, not model capability, drives triage failure in the assessment of consumer health AI

Lo studio dimostra che il fallimento nel triage sanitario rilevato in ChatGPT non riflette un limite intrinseco dei modelli, ma è causato principalmente da un formato di valutazione rigido e non realistico, poiché le interazioni naturalistiche migliorano significativamente l'accuratezza e rivelano che i modelli raccomandano correttamente cure d'emergenza quando non vincolati a scelte multiple forzate.

David Fraile Navarro, Farah Magrabi, Enrico CoieraFri, 13 Ma🤖 cs.AI

Managing Cognitive Bias in Human Labeling Operations for Rare-Event AI: Evidence from a Field Experiment

Questo studio dimostra che, nel contesto dell'etichettatura umana per eventi rari, l'uso di feedback bilanciati e la richiesta di probabilità espresse dai lavoratori, uniti a una ricalibrazione post-processo, riducono i bias cognitivi e migliorano significativamente l'affidabilità dei modelli di deep learning downstream.

Gunnar P. Epping, Andrew Caplin, Erik Duhaime, William R. Holmes, Daniel Martin, Jennifer S. TruebloodFri, 13 Ma💰 q-fin

A technology-oriented mapping of the language and translation industry: Analysing stakeholder values and their potential implication for translation pedagogy

Basandosi su dati raccolti dal progetto LT-LiDER, l'articolo analizza come l'automazione nel settore della traduzione ridefinisca i valori professionali, evidenziando come l'efficienza tecnologica e l'adattabilità umana diventino complementari piuttosto che antagoniste, con implicazioni significative per la didattica della traduzione.

María Isabel Rivas Ginel, Janiça Hackenbuchner, Alina Secar\u{a}, Ralph Krüger, Caroline RossiFri, 13 Ma💬 cs.CL

An Intent of Collaboration: On Agencies between Designers and Emerging (Intelligent) Technologies

Questo studio esplora come i designer possano mantenere la propria agenzia creativa collaborando con l'intelligenza artificiale generativa, proponendo una relazione di collaborazione basata sull'introspezione, sulla comprensione tecnica e sull'adattamento dinamico per superare le sfide poste dalla mancanza di conoscenza incarnata di questi sistemi.

Pei-Ying Lin, Julie Heij, Iris Borst, Britt Joosten, Kristina Andersen, Wijnand IJsselsteijnFri, 13 Ma🤖 cs.AI