LoRA-MME: Multi-Model Ensemble of LoRA-Tuned Encoders for Code Comment Classification
Das Paper stellt LoRA-MME vor, einen Multi-Model-Ensemble-Ansatz, der vier mit LoRA feinabgestimmte Transformer-Encoder kombiniert, um die Klassifizierung von Code-Kommentaren in Java, Python und Pharo zu verbessern, wobei trotz hoher semantischer Genauigkeit (F1-Weighted 0,7906) der hohe Rechenaufwand zu einer niedrigeren Gesamtbewertung im Wettbewerb führte.