GDR-learners: Orthogonal Learning of Generative Models for Potential Outcomes
Dit paper introduceert GDR-learners, een flexibel framework dat bestaande diepe generatieve modellen (zoals normalizing flows, GANs, VAEs en diffusion modellen) combineert met Neyman-orthogonaliteit om conditionele verdelingen van potentiële uitkomsten te schatten met dubbele robustheid en quasi-orakel-efficiëntie.