A Closed-Form Solution for Debiasing Vision-Language Models with Utility Guarantees Across Modalities and Tasks
이 논문은 학습 데이터에서 파생된 편향을 교정하면서도 모델의 유용성을 이론적으로 보장하는 폐형식 (closed-form) 해법을 제시하여, 주석 데이터 없이 시각 및 텍스트 모달리티의 교차적 편향을 제거하고 다양한 다운스트림 작업에서 편향 완화와 성능 유지 간의 최적 균형을 달성하는 훈련 없는 방법을 제안합니다.