An Information-Theoretic Framework For Optimizing Experimental Design To Distinguish Probabilistic Neural Codes
Diese Arbeit stellt ein informationstheoretisches Framework vor, das durch die Maximierung der Kullback-Leibler-Divergenz zwischen Likelihood- und Posterior-Codes optimale Stimulusverteilungen für Experimente identifiziert, um konkurrierende probabilistische neuronale Kodierungshypothesen effektiv zu unterscheiden.