A New Estimator of Kullback--Leibler Divergence via Shannon Entropy
Die Arbeit stellt einen neuen Schätzer für die Kullback-Leibler-Divergenz vor, der auf der Shannon-Entropie und k-Nächste-Nachbarn-Methoden basiert, und nutzt ihn für einen goodness-of-fit-Test auf Multivariat-Normalverteilung, der sich in Simulationen als überlegen gegenüber herkömmlichen Tests erweist.