Multimodal Large Language Models for Low-Resource Languages: A Case Study for Basque

本論文は、低リソース言語であるバスク語向けに独自に作成した画像・テキストデータセットを用いて大規模言語モデルを訓練し、バスク語のマルチモーダルデータが少量(約 20%)で十分であり、かつバスク語に特化した指示型 LLM をバックボーンとして必須としないことを示すことで、他の低リソース言語におけるマルチモーダル大規模言語モデルの開発への道を開いたことを報告しています。

Lukas Arana, Julen Etxaniz, Ander Salaberria + 1 more2026-03-05🤖 cs.AI

Dripper: Token-Efficient Main HTML Extraction with a Lightweight LM

本論文は、大規模言語モデルの計算コストと幻覚の問題を解決しつつ、従来のヒューリスティック手法を上回る精度でウェブページから主要コンテンツを抽出するための軽量フレームワーク「Dripper」を提案し、その性能を新ベンチマーク「WebMainBench」で検証するとともに、抽出された高品質データを用いて事前学習されたモデルの優位性を示しています。

Mengjie Liu, Jiahui Peng, Wenchang Ning + 14 more2026-03-05💬 cs.CL

Succeeding at Scale: Automated Dataset Construction and Query-Side Adaptation for Multi-Tenant Search

本論文では、大規模マルチテナント検索システムにおける「ダークデータ」の活用と高コストなモデル更新の課題を解決するため、LLM を活用した完全自動化パイプラインで構築されたベンチマーク「DevRev-Search」を提案し、ドキュメントインデックスを固定したままクエリエンコーダーのみを微調整する「Index-Preserving Adaptation」戦略により、スケーラブルかつ実用的な検索適応を実現することを示しています。

Prateek Jain, Shabari S Nair, Ritesh Goru + 4 more2026-03-05🤖 cs.AI

Knowledge Graphs are Implicit Reward Models: Path-Derived Signals Enable Compositional Reasoning

この論文は、知識グラフの経路から導出された報酬信号を用いた強化学習と教師あり微調整を組み合わせることで、専門分野における複雑な多段推論能力を大幅に向上させ、大規模な先行モデルや最先端システムを上回る性能を発揮する新しい学習パラダイムを提案しています。

Yuval Kansal, Niraj K. Jha2026-03-05✓ Author reviewed 🤖 cs.AI

Rewards as Labels: Revisiting RLVR from a Classification Perspective

この論文は、強化学習における報酬をスカラー重みではなくカテゴリラベルとして扱う「REAL」という新しいフレームワークを提案し、勾配の誤割り当てや支配問題を解消することで、数学的推論タスクにおいて既存の GRPO や DAPO などの手法を安定して上回る性能を実現することを示しています。

Zepeng Zhai, Meilin Chen, Jiaxuan Zhao + 3 more2026-03-05🤖 cs.LG

To Think or Not To Think, That is The Question for Large Reasoning Models in Theory of Mind Tasks

本論文は、数学やコーディングで優れた推論能力を示す大規模推論モデルが、心の理論(ToM)タスクにおいては必ずしも非推論モデルを上回らず、むしろ思考の過剰や選択肢への依存といった課題に直面していることを実証し、社会推論には既存の推論手法を超えた独自の能力開発が必要であると結論付けています。

Nanxu Gong, Haotian Li, Sixun Dong + 3 more2026-03-05🤖 cs.AI

Meenz bleibt Meenz, but Large Language Models Do Not Speak Its Dialect

この論文は、ドイツのマイツ方言「メエンツェルリッシュ」の保存を目的として同方言初の NLP データセットを構築し、大規模言語モデル(LLM)による方言の定義生成や単語生成の能力を評価した結果、既存の LLM は極めて低い精度しか示さなかったため、ドイツの方言研究へのさらなる資源と取り組みが緊急に必要であることを明らかにしています。

Minh Duc Bui, Manuel Mager, Peter Herbert Kann + 1 more2026-03-05💬 cs.CL

Prompt Sensitivity and Answer Consistency of Small Open-Source Large Language Models on Clinical Question Answering: Implications for Low-Resource Healthcare Deployment

低リソース医療環境向けに、5 つのオープンソース小規模言語モデルの臨床質問応答におけるプロンプト感度と回答の一貫性を評価した本研究は、一貫性が高くても正解率が低い「確実に誤る」危険性を指摘し、Llama 3.2 が精度と信頼性のバランスにおいて最も優れていることを示しました。

Shravani Hariprasad2026-03-05🤖 cs.AI

A Study on Building Efficient Zero-Shot Relation Extraction Models

本論文は、現実的な仮定(オフライン前計算の可否や不要な入力に対する拒否メカニズムの有無)を満たすゼロショット関係抽出モデルの堅牢性を検討し、既存手法の限界を指摘するとともに、単一パス処理と拒否メカニズムを組み合わせた戦略を提案し、その中で AlignRE が最も優れていることを示しています。

Hugo Thomas, Caio Corro, Guillaume Gravier + 1 more2026-03-05💬 cs.CL

From Variance to Invariance: Qualitative Content Analysis for Narrative Graph Annotation

この論文は、定性的コンテンツ分析の原則を取り入れたナラティブグラフ注釈フレームワークを提案し、6×3 因子実験を通じて注釈の表現形式と距離指標がアノテータ間合意に与える影響を分析することで、経済ナラティブの構造化評価における品質向上と人間ラベル変動への対応策を示しています。

Junbo Huang, Max Weinig, Ulrich Fritsche + 1 more2026-03-05🤖 cs.AI