Community-Informed AI Models for Police Accountability

Questo articolo propone un approccio all'intelligenza artificiale informato dalla comunità per sviluppare strumenti multidisciplinari che analizzino le interazioni tra polizia e cittadini, integrando le prospettive dei diversi portatori di interesse per migliorare la trasparenza e la responsabilità democratica.

Benjamin A. T. Grahama, Lauren Brown, Georgios Chochlakis, Morteza Dehghani, Raquel Delerme, Brittany Friedman, Ellie Graeden, Preni Golazizian, Rajat Hebbar, Parsa Hejabi, Aditya Kommineni, Mayagüez Salinas, Michael Sierra-Arévalo, Jackson Trager, Nicholas Weller, Shrikanth NarayananFri, 13 Ma⚡ eess

LLMs Can Infer Political Alignment from Online Conversations

Lo studio dimostra che i grandi modelli linguistici (LLM) possono inferire con alta precisione l'allineamento politico degli utenti analizzando conversazioni online apparentemente innocue, superando i modelli tradizionali e evidenziando un significativo rischio per la privacy derivante dalla capacità dell'IA di sfruttare le correlazioni socio-culturali.

Byunghwee Lee, Sangyeon Kim, Filippo Menczer, Yong-Yeol Ahn, Haewoon Kwak, Jisun AnFri, 13 Ma💬 cs.CL

"I followed what felt right, not what I was told": Autonomy, Coaching, and Recognizing Bias Through AI-Mediated Dialogue

Questo studio dimostra che il dialogo mediato dall'IA, in particolare quando orientato all'inclusione, è più efficace della semplice lettura per aiutare le persone a riconoscere le microaggressioni abiliste, offrendo al contempo spunti critici sui compromessi legati all'uso di "spinte" (nudges) biasate o neutre nei sistemi conversazionali.

Atieh Taheri, Hamza El Alaoui, Patrick Carrington, Jeffrey P. BighamFri, 13 Ma🤖 cs.AI

Locating Demographic Bias at the Attention-Head Level in CLIP's Vision Encoder

Questo studio propone un audit di equità meccanicistico che localizza i pregiudizi demografici a livello di singoli attention head nell'encoder visivo di CLIP, dimostrando che l'ablazione di specifici neuroni riduce efficacemente il bias di genere con un impatto minimo sulla precisione, mentre il bias legato all'età risulta più diffuso e meno localizzabile.

Alaa Yasser, Kittipat Phunjanna, Marcos Escudero Viñolo, Catarina Barata, Jenny Benois-PineauFri, 13 Ma🤖 cs.AI

The impact of AI and peer feedback on research writing skills: a study using the CGScholar platform among Kazakhstani scholars

Questo studio analizza l'impatto combinato dell'intelligenza artificiale e del feedback tra pari sulle capacità di scrittura accademica di 36 studiosi kazaki utilizzando la piattaforma CGScholar, rivelando una forte apertura verso gli strumenti AI e un elevato apprezzamento per il contributo dei colleghi, in particolare nella metodologia di ricerca.

Raigul Zheldibayeva2026-03-10🤖 cs.AI

Assessing Risks of Large Language Models in Mental Health Support: A Framework for Automated Clinical AI Red Teaming

Questo studio presenta un framework di "red teaming" clinico automatizzato che, attraverso simulazioni su larga scala con pazienti virtuali, rivela gravi rischi di sicurezza negli attuali modelli linguistici per la salute mentale, come la convalida di deliri e il fallimento nella gestione del rischio suicidario, sottolineando la necessità di tali valutazioni prima del loro impiego.

Ian Steenstra, Paola Pedrelli, Weiyan Shi + 2 more2026-03-06💻 cs

Baseline Performance of AI Tools in Classifying Cognitive Demand of Mathematical Tasks

Questo studio valuta le prestazioni di undici strumenti di intelligenza artificiale, sia generali che specifici per l'educazione, nella classificazione della domanda cognitiva dei compiti matematici, rivelando un'accuratezza media del 63% con una tendenza sistematica a sovrastimare le categorie intermedie e a privilegiare le caratteristiche testuali superficiali rispetto ai processi cognitivi sottostanti.

Danielle S. Fox, Brenda L. Robles, Elizabeth DiPietro Brovey + 1 more2026-03-06💻 cs

Reckless Designs and Broken Promises: Privacy Implications of Targeted Interactive Advertisements on Social Media Platforms

Questo studio rivela che la progettazione interattiva predefinita degli annunci pubblicitari su TikTok, Facebook e Instagram crea una falla nella privacy che permette agli inserzionisti di visualizzare i profili degli utenti che interagiscono con i loro annunci, contraddicendo le promesse delle piattaforme di proteggere i dati degli utenti e suggerendo modifiche progettuali per garantire maggiore trasparenza.

Julia B. Kieserman, Athanasios Andreou, Laura Edelson, Sandra Siby, Damon McCoy2026-03-06🔒 cs.CR