Do Deployment Constraints Make LLMs Hallucinate Citations? An Empirical Study across Four Models and Five Prompting Regimes

この論文は、4 つの言語モデルと 5 つの提示条件を用いた実証研究により、展開制約を課しても LLM が生成する引用の存在率は 47.5% 以下に留まり、形式は整っていても事実無根の引用が多数含まれることを明らかにし、技術文献レビューやツールパイプラインへの導入前に事後検証の必要性を説いています。

Chen Zhao, Yuan Tang, Yitian Qian2026-03-10💻 cs

MAviS: A Multimodal Conversational Assistant For Avian Species

本論文は、1,000 種以上の鳥類を対象とした画像・音声・テキストを統合した大規模データセット「MAviS-Dataset」と、それに基づいて構築された鳥類専門のマルチモーダル対話モデル「MAviS-Chat」、およびその性能評価ベンチマーク「MAviS-Bench」を提案し、生態学応用におけるドメイン適応型マルチモーダル大規模言語モデルの有効性を示しています。

Yevheniia Kryklyvets, Mohammed Irfan Kurpath, Sahal Shaji Mullappilly, Jinxing Zhou, Fahad Shabzan Khan, Rao Anwer, Salman Khan, Hisham Cholakkal2026-03-10💻 cs

Spectral Discovery of Continuous Symmetries via Generalized Fourier Transforms

この論文は、関数のスペクトル分解における構造化された疎性を検出することで、生成子空間の最適化に依存せず連続対称性を発見する、一般化フーリエ変換に基づく新しい枠組みを提案し、その有効性を双振り子やトップクォークタグ付けなどのタスクで実証しています。

Pavan Karjol, Kumar Shubham, Prathosh AP2026-03-10🤖 cs.LG

Data-Driven Hints in Intelligent Tutoring Systems

この論文は、過去の学習データに基づく「ヒントファクトリー」や「インタラクションネットワーク」、さらには大規模言語モデル(LLM)の統合を活用し、次なるステップのヒントや戦略的サブゴールの生成、提示タイミングの最適化など、インテリジェント・チューティングシステムにおけるデータ駆動型のヒント生成技術の進化と将来の可能性を探求しています。

Sutapa Dey Tithi, Kimia Fazeli, Dmitri Droujkov, Tahreem Yasir, Xiaoyi Tian, Tiffany Barnes2026-03-10💻 cs

Adversarial Latent-State Training for Robust Policies in Partially Observable Domains

この論文は、部分的に観測可能な強化学習における潜在状態分布のシフトに対する頑健性を向上させるため、敵対的な潜在初期状態分布を選択する設定を定式化し、理論的な証明と「戦艦」ベンチマークを用いた実証実験を通じて、構造化された敵対的曝露が最悪ケースの脆弱性を効果的に軽減することを示しています。

Angad Singh Ahuja2026-03-10🤖 cs.LG

FinSheet-Bench: From Simple Lookups to Complex Reasoning, Where LLMs Break on Financial Spreadsheets

この論文は、実業界の機密データに代わる合成データを用いたベンチマーク「FinSheet-Bench」を提案し、主要な大規模言語モデル(LLM)が複雑な財務スプレッドシートからの情報抽出や数値推論において依然として高い誤り率を示しており、専門的な金融用途での自律的な利用には文書理解と確定的な計算を分離するアーキテクチャの導入が必要であると結論付けています。

Jan Ravnik, Matjaž Ličen, Felix Bührmann, Bithiah Yuan, Felix Stinson, Tanvi Singh2026-03-10💻 cs

Norm-Hierarchy Transitions in Representation Learning: When and Why Neural Networks Abandon Shortcuts

この論文は、正則化された最適化におけるパラメータノルムの階層をゆっくりと移動する「ノルム階層遷移(NHT)」フレームワークを提案し、ニューラルネットワークがスパースなショートカットから構造化された表現へ移行するタイミングと遅延のメカニズムを説明するものである。

Truong Xuan Khanh, Truong Quynh Hoa2026-03-10🤖 cs.LG

VisualScratchpad: Inference-time Visual Concepts Analysis in Vision Language Models

本論文は、視覚言語モデルの推論時に視覚概念を分析・可視化し、モデルの失敗モードを特定するためのインタラクティブなツール「VisualScratchpad」を提案し、その応用によりクロスモーダルアライメントの限界や誤った視覚概念、未使用の隠れた手がかりといった新たな失敗パターンを明らかにしたものです。

Hyesu Lim, Jinho Choi, Taekyung Kim, Byeongho Heo, Jaegul Choo, Dongyoon Han2026-03-10💻 cs

Learning Concept Bottleneck Models from Mechanistic Explanations

本論文は、ブラックボックスモデルが学習した概念をスパースオートエンコーダとマルチモーダル LLM を用いて抽出・命名する「Mechanistic CBM(M-CBM)」を提案し、事前定義された概念に依存する既存の概念ボトルネックモデルよりも高い予測精度と説明性を実現することを示しています。

Antonio De Santis, Schrasing Tong, Marco Brambilla, Lalana Kagal2026-03-10🤖 cs.LG

AgrI Challenge: A Data-Centric AI Competition for Cross-Team Validation in Agricultural Vision

農業ビジョン分野におけるモデルの汎化性能向上を目指し、複数のチームが独立して収集した多様なフィールドデータを用いた「AgrI Challenge」というデータ中心のコンペティション枠組みと、クロスチーム検証(CTV)という評価手法を提案し、単一ソース学習の限界とマルチソース協調学習の有効性を示した。

Mohammed Brahimi, Karim Laabassi, Mohamed Seghir Hadj Ameur, Aicha Boutorh, Badia Siab-Farsi, Amin Khouani, Omar Farouk Zouak, Seif Eddine Bouziane, Kheira Lakhdari, Abdelkader Nabil Benghanem2026-03-10🤖 cs.LG

Latent Generative Models with Tunable Complexity for Compressed Sensing and other Inverse Problems

この論文は、ネステッドドロップアウトを活用して拡散モデルや正規化フローなどの生成モデルに可変複雑性を導入し、圧縮センシングや画像復元などの逆問題において、固定複雑性のベースラインよりも低い再構成誤差を達成することを示しています。

Sean Gunn, Jorio Cocola, Oliver De Candido, Vaggos Chatziafratis, Paul Hand2026-03-10🤖 cs.LG

The Yerkes-Dodson Curve for AI Agents: Emergent Cooperation Under Environmental Pressure in Multi-Agent LLM Simulations

この論文は、グリッドワールド生存アリーナを用いた大規模言語モデル(LLM)のマルチエージェントシミュレーションにおいて、環境圧力(資源不足や生殖競争)とパフォーマンスの関係が心理学者のヤーキーズ・ドッドソンの法則(逆 U 字型曲線)に従い、中程度の圧力下で協力的な行動が最大化されることを実証した世界初の体系的な研究です。

Ivan Pasichnyk2026-03-10💻 cs

Scaling Laws in the Tiny Regime: How Small Models Change Their Mistakes

本論文は、1 億パラメータ未満の「極小モデル」領域におけるスケーリング則を初めて実証し、モデルサイズの変化に伴う誤分類パターンの転換や、中規模モデルで最も誤った確率が高いという_calibration_の逆説的現象を明らかにし、エッジ AI 向けにはターゲットサイズでの検証が不可欠であることを示しています。

Mohammed Alnemari, Rizwan Qureshi, Nader Begrazadah2026-03-10🤖 cs.LG