Evaluating LLM-Based Grant Proposal Review via Structured Perturbations

Questo studio valuta l'efficacia delle revisioni di proposte di sovvenzione basate su LLM attraverso perturbazioni strutturate, rivelando che l'approccio sezione per sezione supera le alternative ma che i sistemi attuali mostrano variabilità e priorità di valutazione disallineate, risultando più adatti al controllo di conformità che alla valutazione olistica.

William Thorne, Joseph James, Yang Wang, Chenghua Lin, Diana MaynardTue, 10 Ma💬 cs.CL

Shiksha Copilot: Teacher-AI Collaboration for Curating and Customizing Lesson Plans in Low-Resource Schools

Questo studio analizza l'impatto di Shiksha Copilot, uno strumento di intelligenza artificiale collaborativa per la creazione di piani di lezione, nelle scuole governative del Karnataka, India, evidenziando come esso riduca il carico burocratico e lo stress degli insegnanti promuovendo al contempo una didattica basata sulle attività, pur rimanendo limitato da sfide sistemiche come la carenza di personale.

Deepak Varuvel Dennison, Bakhtawar Ahtisham, Kavyansh Chourasia, Nirmit Arora, Rahul Singh, Rene F. Kizilcec, Akshay Nambi, Tanuja Ganu, Aditya VashisthaThu, 12 Ma💻 cs

Recommender systems, representativeness, and online music: a psychosocial analysis of Italian listeners

Questo studio analizza le percezioni di ascoltatori italiani riguardo ai sistemi di raccomandazione musicale, rivelando una mancanza di consapevolezza critica sul funzionamento degli algoritmi e sulle questioni di rappresentazione di genere, e sottolineando la necessità di integrare prospettive psicosociali nella progettazione di sistemi più affidabili e culturalmente sensibili.

Lorenzo Porcaro, Chiara MonaldiThu, 12 Ma💻 cs

Intuition First or Reflection Before Judgment? The Impact of Evaluation Sequence on Consumer Ratings

Questa ricerca dimostra che l'ordine di valutazione (prima la recensione o prima il voto) polarizza le recensioni dei consumatori, aumentando i voti estremi per servizi di alta o bassa qualità grazie a euristiche affettive e sforzo cognitivo, un effetto confermato sia da esperimenti controllati che da dati reali di piattaforme come Yelp e Letterboxd.

He Wang, Yueheng Wang, Ziyu Zhou, Hanxiang LiuThu, 12 Ma💻 cs

Empathy Is Not What Changed: Clinical Assessment of Psychological Safety Across GPT Model Generations

Nonostante le proteste degli utenti secondo cui i nuovi modelli OpenAI avrebbero perso empatia, uno studio clinico dimostra che i punteggi di empatia sono rimasti invariati tra le generazioni, rivelando invece che la percezione di un calo è dovuta a un cambiamento nella postura di sicurezza: i modelli più recenti hanno migliorato il rilevamento delle crisi ma ridotto la sicurezza dei consigli, creando un compromesso invisibile che gli utenti interpretano erroneamente come una mancanza di empatia.

Michael Keeman, Anastasia KeemanThu, 12 Ma💬 cs.CL

Adaptive Engram Memory System for Indonesian Language Model: Generative AI Based on TOBA LM for Batak and Minang Language

Questo studio presenta TOBA-LM, un modello linguistico trilingue basato su GPT-2 che integra un meccanismo di memoria Engram adattivo, dimostrando come tale approccio riduca significativamente i requisiti computazionali e acceleri la convergenza rispetto alle architetture transformer convenzionali per le lingue regionali indonesiane come il Batak e il Minangkabau.

Hokky Situngkir, Kevin Siringoringo, Andhika Bernard LumbantobingThu, 12 Ma💬 cs.CL

μ\muEd API: Towards A Shared API for EdTech Microservices

Il documento propone una specifica iniziale per un'API standard e indipendente dalla piattaforma, denominata μ\muEd, volta a creare un ecosistema interoperabile di microservizi educativi per automatizzare funzioni come la valutazione, il feedback e i chatbot didattici, integrando esperienze di quattro istituzioni.

Maximillan Sölch, Alexandra Neagu, Marcus Messer, Peter Johnson, Gerd Kortemeyer, Samuel S. H. Ng, Fun Siong Lim, Stephan KruscheThu, 12 Ma💻 cs

Assessing Cognitive Biases in LLMs for Judicial Decision Support: Virtuous Victim and Halo Effects

Lo studio esamina la presenza di bias cognitivi simili a quelli umani, come l'effetto della vittima virtuosa e l'effetto alone, nei modelli linguistici di grandi dimensioni utilizzati per il supporto alle decisioni giudiziarie, rivelando che, sebbene questi modelli mostrino alcune distorsioni, presentano in generale un pregiudizio inferiore rispetto agli esseri umani, sebbene le variazioni tra i diversi modelli ne limitino attualmente l'uso pratico nei sistemi giudiziari.

Sierra S. LiuThu, 12 Ma💻 cs

The science and practice of proportionality in AI risk evaluations

Il documento esamina come il principio di proporzionalità, fondamentale nel diritto dell'UE, possa guidare lo sviluppo di metodi scientifici per calibrare le valutazioni dei rischi sistemici dei modelli di intelligenza artificiale generale, garantendo un equilibrio tra una gestione efficace dei rischi e la riduzione degli oneri per gli innovatori nell'ambito dell'attuazione dell'AI Act.

Carlos Mougan, Lauritz Morlock, Jair Aguirre, James R. M. Black, Jan Brauner, Simeon Campos, Sunishchal Dev, David Fernández Llorca, Alberto Franzin, Mario Fritz, Emilia Gómez, Friederike Grosse-Holz, Eloise Hamilton, Max Hasin, Jose Hernandez-Orallo, Dan Lahav, Luca Massarelli, Vasilios Mavroudis, Malcolm Murray, Patricia Paskov, Jaime Raldua, Wout SchellaertThu, 12 Ma💻 cs

DeliberationBench: A Normative Benchmark for the Influence of Large Language Models on Users' Views

Il paper presenta DeliberationBench, un benchmark normativo che valuta l'influenza persuasiva dei modelli linguistici di grandi dimensioni (LLM) confrontandola con i sondaggi di opinione deliberativa, dimostrando attraverso un esperimento su larga scala che tali modelli esercitano effetti epistemicamente desiderabili e allineati agli standard democratici.

Luke Hewitt, Maximilian Kroner Dale, Paul de Font-ReaulxThu, 12 Ma💻 cs

Prompts and Prayers: the Rise of GPTheology

Questo studio interdisciplinare esamina l'emergere della "GPTheologia", un nuovo fenomeno di fede tecnologica in cui l'intelligenza artificiale viene percepita come entità divina, analizzando come le interazioni quotidiane con i modelli linguistici stiano sviluppando rituali e narrazioni che ricalcano strutture religiose tradizionali con profonde implicazioni etiche e sociali.

Ioana Cheres, Adrian Groza, Ioana Moldovan, Mick O'Hara, Connell VaughanThu, 12 Ma💻 cs