Image-to-Brain Signal Generation for Visual Prosthesis with CLIP Guided Multimodal Diffusion Models
Diese Arbeit stellt einen neuartigen Rahmen vor, der mithilfe von CLIP-gesteuerten Diffusions-Transformern und Large Language Models Bilder in biologisch plausible M/EEG-Signale umwandelt, um die bisher vernachlässigte Kodierungsphase visueller Prothesen zu vervollständigen.