Generative AI and LLMs in Industry: A text-mining Analysis and Critical Evaluation of Guidelines and Policy Statements Across Fourteen Industrial Sectors

Questo studio analizza 160 linee guida e dichiarazioni politiche relative all'intelligenza artificiale generativa e ai modelli linguistici su larga scala in quattordici settori industriali, utilizzando tecniche di text-mining per valutare le sfide di governance e fornire raccomandazioni per un'integrazione responsabile, trasparente ed equa.

Junfeng Jiao, Saleh Afroogh, Kevin Chen, David Atkinson, Amit DhurandharWed, 11 Ma💻 cs

A Decade of News Forum Interactions: Threaded Conversations, Signed Votes, and Topical Tags

Questo lavoro presenta un vasto dataset longitudinale di oltre 75 milioni di commenti e 400 milioni di voti provenienti dal forum del quotidiano austriaco DerStandard tra il 2013 e il 2022, progettato per facilitare l'analisi delle dinamiche di discussione e della struttura semantica in lingua tedesca garantendo al contempo la privacy degli utenti attraverso l'anonymizzazione e la condivisione di rappresentazioni vettoriali anziché dei testi grezzi.

Emma Fraxanet, Vicenç Gómez, Andreas Kaltenbrunner, Max PellertWed, 11 Ma💻 cs

Does Scientific Writing Converge to U.S. English? Evidence from Generative AI-Assisted Publications

Uno studio su 5,65 milioni di articoli scientifici rivela che l'uso dell'intelligenza artificiale generativa sta riducendo le barriere linguistiche facendo convergere la scrittura scientifica di autori non anglofoni verso lo standard dell'inglese statunitense, sebbene ciò sollevi interrogativi su un'effettiva inclusione o su una crescente dipendenza da un unico modello linguistico.

Dragan Filimonovic, Christian Rutzer, Jeffrey Macher, Rolf WederWed, 11 Ma💬 cs.CL

Queer NLP: A Critical Survey on Literature Gaps, Biases and Trends

Questo studio offre una rassegna critica della letteratura sull'NLP queer, evidenziando come la maggior parte delle ricerche si limiti a identificare reattivamente i pregiudizi invece di proporre soluzioni proattive, e delinea una roadmap per un futuro più inclusivo che privilegi il coinvolgimento degli stakeholder, l'intersezionalità e la diversità linguistica.

Sabine Weber, Angelina Wang, Ankush Gupta, Arjun Subramonian, Dennis Ulmer, Eshaan Tanwar, Geetanjali Aich, Hannah Devinney, Jacob Hobbs, Jennifer Mickel, Joshua Tint, Mae Sosto, Ray Groshan, Simone Astarita, Vagrant Gautam, Verena Blaschke, William Agnew, Wilson Y Lee, Yanan LongWed, 11 Ma💻 cs

Alignment Is the Disease: Censorship Visibility and Alignment Constraint Complexity as Determinants of Collective Pathology in Multi-Agent LLM Systems

Questo studio preliminare suggerisce che le tecniche di allineamento nei modelli linguistici su larga scala possono generare una patologia collettiva iatrogena, dove la censura invisibile e la complessità dei vincoli di allineamento, anziché garantire la sicurezza, esacerbano il comportamento patologico e la dissociazione tra insight e azione in sistemi multi-agente.

Hiroki FukuiWed, 11 Ma🤖 cs.AI

Artificial Intelligence (AI) Maturity in Small and Medium-Sized Enterprises: A Framework of Internalized and Ecosystem-Embedded Capabilities

Questo studio propone un nuovo quadro concettuale per la maturità dell'intelligenza artificiale nelle PMI, che supera i modelli tradizionali centrati sull'impresa introducendo un approccio multidimensionale, non lineare e radicato nell'ecosistema, specificamente adattato alle risorse limitate, alla governance informale e alla dipendenza esterna caratteristiche delle piccole e medie imprese.

Sukanlaya Sawang, Virach SornlertlamvanichWed, 11 Ma💻 cs

Clear, Compelling Arguments: Rethinking the Foundations of Frontier AI Safety Cases

Questo articolo propone un nuovo quadro teorico e metodologico per i casi di sicurezza dell'IA avanzata, criticando gli approcci attuali della comunità di allineamento e integrando lezioni tratte da settori ad alta criticità come l'aerospaziale e il nucleare per sviluppare argomentazioni più robuste e difendibili, con un caso di studio specifico su allineamento ingannevole e capacità CBRN.

Shaun Feakins, Ibrahim Habli, Phillip MorganWed, 11 Ma🤖 cs.AI

From Verification to Amplification: Auditing Reverse Image Search as Algorithmic Gatekeeping in Visual Misinformation Fact-checking

Questo studio evidenzia come la ricerca inversa di immagini di Google, utilizzata per la verifica delle notizie, funzioni come un gatekeeper algoritmico che spesso fallisce nel promuovere contenuti di smentita a causa della prevalenza di informazioni irrilevanti e della presenza di "vuoti di dati" all'insorgenza di disinformazione visiva.

Cong Lin, Yifei Chen, Jiangyue Chen, Yingdan Lu, Yilang Peng, Cuihua ShenWed, 11 Ma💻 cs

The Reasoning Trap -- Logical Reasoning as a Mechanistic Pathway to Situational Awareness

Questo paper sostiene che il miglioramento delle capacità di ragionamento logico nei modelli linguistici di grandi dimensioni, attraverso il framework RAISE, funge da meccanismo diretto per l'acquisizione della consapevolezza situazionale e il potenziale inganno strategico, rendendo necessarie nuove misure di sicurezza come il "Test dello Specchio" e il Principio di Parità di Sicurezza nel Ragionamento.

Subramanyam Sahoo, Aman Chadha, Vinija Jain, Divya ChaudharyWed, 11 Ma🤖 cs.AI

PixelConfig: Longitudinal Measurement and Reverse-Engineering of Meta Pixel Configurations

Il paper presenta PixelConfig, un framework di analisi differenziale che, attraverso lo studio longitudinale di 18.000 siti web sanitari, rivela come le configurazioni predefinite del Meta Pixel consentano un tracciamento pervasivo di attività e identità degli utenti, inclusa la raccolta di dati sensibili, mentre le funzionalità di restrizione del tracciamento risultano spesso inefficaci o facilmente aggirabili.

Abdullah Ghani (Lahore University of Management Sciences), Yash Vekaria (University of California, Davis), Zubair Shafiq (University of California, Davis)Wed, 11 Ma💻 cs