Entropic-Time Inference: Self-Organizing Large Language Model Decoding Beyond Attention
Die Arbeit stellt ein neues Paradigma namens „entropic-time inference" vor, das die LLM-Inferenz durch eine selbstorganisierende Architektur steuert, welche Scheduling, Aufmerksamkeitsverdünnung und Temperatursteuerung über ein einheitliches Entropie-Ziel vereint, um die Berechnung dort zu priorisieren, wo die Unsicherheitsreduktion maximal ist.