Reasoning Models Struggle to Control their Chains of Thought

Lo studio introduce la suite di valutazione CoT-Control per dimostrare che i modelli di ragionamento attuali possiedono una capacità significativamente inferiore di controllare i propri processi di pensiero rispetto all'output finale, offrendo un motivo per l'ottimismo riguardo alla monitorabilità, sebbene il meccanismo sottostante rimanga poco compreso.

Chen Yueh-Han, Robert McCarthy, Bruce W. Lee, He He, Ian Kivlichan, Bowen Baker, Micah Carroll, Tomek Korbak2026-03-09🤖 cs.AI

The Rise of AI in Weather and Climate Information and its Impact on Global Inequality

Il paper sostiene che, sebbene l'IA prometta avanzamenti senza precedenti nelle scienze climatiche, il suo attuale sviluppo concentrato nel Nord globale rischia di esacerbare le disuguaglianze Nord-Sud, richiedendo un approccio centrato sui dati, infrastrutture digitali pubbliche e co-produzione della conoscenza per garantire una resilienza sistemica equa.

Amirpasha Mozaffari, Amanda Duarte, Lina Teckentrup, Stefano Materia, Gina E. C. Charnley, Lluis Palma, Eulalia Baulenas Serra, Dragana Bojovic, Paula Checchia, Aude Carreric, Francisco Doblas-Reyes2026-03-09🤖 cs.AI

Cultural Perspectives and Expectations for Generative AI: A Global Survey Approach

Questo studio presenta i risultati di un'indagine globale su larga scala per analizzare le percezioni e le aspettative riguardo alla rappresentazione culturale nell'IA generativa, proponendo definizioni operative di cultura e raccomandazioni per lo sviluppo di sistemi più inclusivi e sensibili alle specificità culturali.

Erin van Liemt, Renee Shelby, Andrew Smart, Sinchana Kumbale, Richard Zhang, Neha Dixit, Qazi Mamunur Rashid, Jamila Smith-Loud2026-03-09🤖 cs.AI

Depth Charge: Jailbreak Large Language Models from Deep Safety Attention Heads

Il paper propone SAHA, un nuovo framework di jailbreak che sfrutta le vulnerabilità negli strati profondi delle Large Language Models intervenendo direttamente sulle attention heads attraverso una strategia di selezione basata sull'impatto dell'ablazione e una perturbazione consapevole dei confini, ottenendo un aumento significativo del tasso di successo rispetto agli stati dell'arte.

Jinman Wu, Yi Xie, Shiqian Zhao, Xiaofeng Chen2026-03-09🤖 cs.AI

Knowing without Acting: The Disentangled Geometry of Safety Mechanisms in Large Language Models

Il paper propone l'ipotesi di sicurezza disaccoppiata (DSH), dimostrando che i meccanismi di sicurezza nei grandi modelli linguistici operano su due assi geometrici distinti (riconoscimento ed esecuzione) e sfruttando questa separazione per sviluppare un attacco di rimozione del rifiuto che raggiunge prestazioni all'avanguardia.

Jinman Wu, Yi Xie, Shen Lin, Shiqian Zhao, Xiaofeng Chen2026-03-09🤖 cs.AI

PVminerLLM: Structured Extraction of Patient Voice from Patient-Generated Text using Large Language Models

Il paper introduce PVminer, un benchmark e un modello LLM supervisionato (PVminerLLM) che supera i metodi basati su prompt per estrarre in modo strutturato e scalabile le esperienze dei pazienti da testi generati dagli stessi, raggiungendo prestazioni elevate anche con modelli di dimensioni ridotte.

Samah Fodeh, Linhai Ma, Ganesh Puthiaraju, Srivani Talakokkul, Afshan Khan, Ashley Hagaman, Sarah Lowe, Aimee Roundtree2026-03-09🤖 cs.AI

Balancing Domestic and Global Perspectives: Evaluating Dual-Calibration and LLM-Generated Nudges for Diverse News Recommendation

Questo studio valuta l'efficacia di un framework di "nudge" personalizzato per la diversità, combinando un algoritmo di calibrazione duale e suggerimenti generati da LLM, dimostrando che tali interventi possono aumentare la diversità di consumo delle notizie e influenzare positivamente le abitudini di lettura degli utenti verso un equilibrio tra notizie nazionali e internazionali.

Ruixuan Sun, Matthew Zent, Minzhu Zhao, Thanmayee Boyapati, Xinyi Li, Joseph A. Konstan2026-03-09🤖 cs.AI

Visual Words Meet BM25: Sparse Auto-Encoder Visual Word Scoring for Image Retrieval

Il paper presenta BM25-V, un metodo di recupero immagini che applica il punteggio Okapi BM25 alle attivazioni sparse di parole visive derivate da un Auto-Encoder Sparse su feature di Vision Transformer, ottenendo un recupero ad alta precisione e interpretabilità che funge da efficiente primo stadio per il riordinamento denso senza necessità di addestramento aggiuntivo.

Donghoon Han, Eunhwan Park, Seunghyeon Seo2026-03-09🤖 cs.AI

Proof-of-Guardrail in AI Agents and What (Not) to Trust from It

Il paper propone "Proof-of-Guardrail", un sistema che utilizza ambienti di esecuzione attendibili (TEE) per fornire prove crittografiche verificabili che le risposte degli agenti AI sono state filtrate da specifici guardrail open-source, garantendo l'integrità del processo di sicurezza senza rivelare la logica proprietaria dell'agente, pur evidenziando i rischi residui di inganno da parte di sviluppatori malevoli.

Xisen Jin, Michael Duan, Qin Lin, Aaron Chan, Zhenglun Chen, Junyi Du, Xiang Ren2026-03-09🤖 cs.AI

Remote Sensing Image Classification Using Deep Ensemble Learning

Questo studio propone un modello di apprendimento profondo basato su ensemble che integra CNN e Vision Transformers per la classificazione di immagini telerilevate, superando i limiti delle architetture singole e ottenendo prestazioni superiori su diversi dataset grazie a un'efficiente gestione delle risorse computazionali.

Niful Islam, Md. Rayhan Ahmed, Nur Mohammad Fahad, Salekul Islam, A. K. M. Muzahidul Islam, Saddam Mukta, Swakkhar Shatabda2026-03-09🤖 cs.AI