A Coin Flip for Safety: LLM Judges Fail to Reliably Measure Adversarial Robustness

该论文通过大规模人工验证揭示,现有“LLM 作为裁判”的框架因无法应对红队测试中的分布偏移,导致其评估结果往往退化为随机猜测,并指出许多攻击实则是利用了裁判模型的缺陷而非真正产生了有害内容,为此作者提出了更可靠的基准测试与裁判压力测试数据集以改进评估体系。

Leo Schwinn, Moritz Ladenburger, Tim Beyer, Mehrnaz Mofakhami, Gauthier Gidel, Stephan Günnemann2026-03-10💬 cs.CL

Multi-Agent DRL for V2X Resource Allocation: Disentangling Challenges and Benchmarking Solutions

该论文通过构建一系列逐步增加复杂度的多智能体干扰博弈任务,利用大规模 SUMO 生成数据集系统解耦并评估了 C-V2X 网络中多智能体深度强化学习资源分配面临的关键挑战,发现策略在多样化车辆拓扑下的鲁棒性与泛化能力是主要瓶颈,并开源了代码与基准测试套件以推动该领域的可复现研究。

Siyuan Wang, Lei Lei, Pranav Maheshwari, Sam Bellefeuille, Kan Zheng, Dusit Niyato2026-03-10🤖 cs.LG

Scaling Strategy, Not Compute: A Stand-Alone, Open-Source StarCraft II Benchmark for Accessible Reinforcement Learning Research

该论文提出了名为“双桥地图套件(Two-Bridge Map Suite)”的开源基准,旨在通过移除经济机制并聚焦于长距离导航与微操战斗,填补《星际争霸 II》全游戏与微型游戏之间的复杂度空白,从而为在有限算力下进行强化学习研究提供可访问的中间环境。

Sourav Panda, Shreyash Kale, Tanmay Ambadkar, Abhinav Verma, Jonathan Dodge2026-03-10🤖 cs.LG

Consensus is Not Verification: Why Crowd Wisdom Strategies Fail for LLM Truthfulness

该论文指出,在缺乏外部验证的领域,通过增加推理计算量(如多数投票或集成策略)无法提升大语言模型的真实性,因为模型间的错误高度相关且自我置信度不可靠,导致聚合结果往往只是强化了共同的误解而非验证真理。

Yegor Denisov-Blanch, Joshua Kazdan, Jessica Chudnovsky, Rylan Schaeffer, Sheng Guan, Soji Adeshina, Sanmi Koyejo2026-03-10🤖 cs.LG

Evo: Autoregressive-Diffusion Large Language Models with Evolving Balance

本文提出了名为 Evo 的新型大语言模型,该模型通过构建连续潜变量轨迹,将自回归与扩散生成范式统一为自适应平衡的语义演化框架,在保持高效推理速度的同时,于多项基准测试中实现了卓越的语言理解、推理及代码生成性能。

Junde Wu, Minhao Hu, Jiayuan Zhu, Yuyuan Liu, Tianyi Zhang, Kang Li, Jingkun Chen, Jiazhen Pan, Min Xu, Yueming Jin2026-03-10🤖 cs.LG

Photons = Tokens: The Physics of AI and the Economics of Knowledge

该论文通过将大语言模型的“令牌”定义为具有可测量热力学成本的物理量,结合信息论、热力学及经济学原理构建了全球令牌供需模型,旨在量化人类向 AI 系统提出有意义问题的物理与经济上限,并指出在算力约束下,决定性的挑战并非能回答多少问题,而是如何确定哪些值得提问。

Alec Litowitz, Nick Polson, Vadim Sokolov2026-03-10🔬 physics