An Information-Theoretic Framework For Optimizing Experimental Design To Distinguish Probabilistic Neural Codes
Dit artikel presenteert een informatie-theoretisch raamwerk dat experimentele stimuli optimaliseert om het Kullback-Leibler-divergentie-gap te maximaliseren, waardoor probabilistische neurale coderingshypothese (waarschijnlijkheidsfunctie versus posteriorverdeling) op een principiële manier kunnen worden onderscheiden.