Test-Time Adaptation via Many-Shot Prompting: Benefits, Limits, and Pitfalls
この論文は、推論時にモデルパラメータを更新せずに大規模言語モデルの行動を修正する「テスト時適応」手法として、多数の例示を用いたプロンプト(Many-Shot Prompting)の有効性、限界、および課題を体系的に検証し、構造化タスクでは有効だが生成タスクでは選択戦略に敏感であり、動的・強化型 ICL などの代替戦略の必要性を明らかにした研究です。