LMOD+: A Comprehensive Multimodal Dataset and Benchmark for Developing and Evaluating Multimodal Large Language Models in Ophthalmology
El artículo presenta LMOD+, un conjunto de datos y benchmark multimodal a gran escala en oftalmología que expande significativamente el trabajo previo para evaluar modelos de lenguaje grandes multimodales en tareas como diagnóstico, estadificación y predicción demográfica, con el objetivo de avanzar en aplicaciones de IA para reducir la carga global de enfermedades oculares.
Zhenyue Qin, Yang Liu, Yu Yin, Jinyu Ding, Haoran Zhang, Anran Li, Dylan Campbell, Xuansheng Wu, Ke Zou, Tiarnan D. L. Keenan, Emily Y. Chew, Zhiyong Lu, Yih Chung Tham, Ninghao Liu, Xiuzhen Zhang, Qingyu Chen2026-03-10💻 cs