Bielik-Q2-Sharp: A Comparative Study of Extreme 2-bit Quantization Methods for a Polish 11B Language Model

Questo studio presenta Bielik-Q2-Sharp, la prima valutazione sistematica della quantizzazione estrema a 2 bit su un modello linguistico polacco da 11 miliardi di parametri, confrontando sei metodi all'avanguardia e dimostrando che la variante QuIP# mantiene prestazioni quasi equivalenti al baseline IQ2_XXS preservando al contempo capacità di ragionamento superiore, il tutto realizzato con un budget di soli 285 dollari.

Jakub Prejzner2026-03-06💻 cs

SearchGym: A Modular Infrastructure for Cross-Platform Benchmarking and Hybrid Search Orchestration

Il paper presenta SearchGym, un'infrastruttura modulare open-source che colma il divario tra prototipi sperimentali e sistemi di produzione per il RAG, permettendo il benchmarking cross-platform e l'orchestrazione ibrida attraverso astrazioni disaccoppiate e un'algebra di configurazione composita, con risultati che evidenziano come l'ottimizzazione ingegneristica possa rivelare meccanismi causali fondamentali nel recupero dell'informazione.

Jerome Tze-Hou Hsu2026-03-06💻 cs

Signal in the Noise: Decoding the Reality of Airline Service Quality with Large Language Models

Questo studio valida un framework basato su Large Language Models per analizzare oltre 16.000 recensioni TripAdvisor, rivelando come tale approccio superi le metriche tradizionali identificando driver critici di insoddisfazione, come la comunicazione e il comportamento dello staff, che hanno portato a un crollo delle valutazioni per EgyptAir nonostante i miglioramenti operativi.

Ahmed Dawoud, Osama El-Shamy, Ahmed Habashy2026-03-06💻 cs

Unpacking Human Preference for LLMs: Demographically Aware Evaluation with the HUMAINE Framework

Questo studio introduce il framework HUMAINE, che attraverso un'analisi multidimensionale di oltre 23.000 conversazioni con utenti demograficamente stratificati, rivela come le preferenze per i modelli linguistici varino significativamente in base all'età e dimostri la necessità di abbandonare le valutazioni riduzioniste a favore di approcci più rappresentativi e granulari.

Nora Petrova, Andrew Gordon, Enzo Blindow2026-03-06💻 cs

One Size Does Not Fit All: Token-Wise Adaptive Compression for KV Cache

Il paper presenta DynaKV, un innovativo framework di post-addestramento per la compressione del cache KV che assegna dinamicamente tassi di compressione a livello di token in base al loro significato semantico, ottenendo così una riduzione significativa della memoria e prestazioni superiori rispetto alle tecniche esistenti, specialmente se combinato con metodi di pruning come SnapKV.

Liming Lu, Kaixi Qiu, Jiayu Zhou + 6 more2026-03-06💻 cs

Simulating Meaning, Nevermore! Introducing ICR: A Semiotic-Hermeneutic Metric for Evaluating Meaning in LLM Text Summaries

Questo articolo introduce l'Inductive Conceptual Rating (ICR), una metrica qualitativa basata su semiotica ed ermeneutica per valutare l'allineamento semantico dei riassunti generati da LLM, evidenziando come, nonostante l'elevata similarità lessicale, i modelli linguistici spesso falliscano nel catturare significati contestualmente radicati rispetto alla produzione umana.

Natalie Perez, Sreyoshi Bhaduri, Aman Chadha2026-03-06💻 cs