Quantifying Information Loss under Coarse-Grained Partitions: A Discrete Framework for Explainable Artificial Intelligence

Questo articolo introduce un framework discreto basato su partizioni grossolane e una misura di perdita di informazione DKL-CUD_{\mathrm{KL\text{-}CU}} per quantificare il compromesso tra accuratezza e interpretabilità nei sistemi di intelligenza artificiale, dimostrando che la perdita informativa è inevitabile nelle pratiche valutative ordinarie e fornendo strumenti per ottimizzare tale trade-off in ambiti come la valutazione educativa e l'IA spiegabile.

Takashi Izumo2026-03-10🤖 cs.AI

TT-convexity, Weakly Immediate Types, and TT-λλ-Spherical Completions of o-minimal Structures

Questo lavoro generalizza il teorema di Kaplansky sui campi massimamente valutati fornendo, per teorie o-minimali espanso da un anello di valutazione TT-convesso, una costruzione unica di completamenti TT-λ\lambda-sferici ottenuti tramite estensioni debolmente immediate λ\lambda-limitate, dimostrando inoltre che tali teorie sono definibilmente sfericamente complete.

Pietro Freni2026-03-06🔢 math