Understanding the Use of a Large Language Model-Powered Guide to Make Virtual Reality Accessible for Blind and Low Vision People
この論文は、16 人の視覚障害者(盲および弱視)を対象とした研究を通じて、大規模言語モデル(LLM)を活用した AI 案内者が、ユーザーが単独でいる際は「道具」として、他者がいる際は「同伴者」として扱われることを明らかにし、VR 環境におけるアクセシビリティ向上のための設計指針を提示したものである。