Consensus is Not Verification: Why Crowd Wisdom Strategies Fail for LLM Truthfulness

该论文指出,在缺乏外部验证的领域,通过增加推理计算量(如多数投票或集成策略)无法提升大语言模型的真实性,因为模型间的错误高度相关且自我置信度不可靠,导致聚合结果往往只是强化了共同的误解而非验证真理。

Yegor Denisov-Blanch, Joshua Kazdan, Jessica Chudnovsky, Rylan Schaeffer, Sheng Guan, Soji Adeshina, Sanmi Koyejo2026-03-10🤖 cs.LG

Evo: Autoregressive-Diffusion Large Language Models with Evolving Balance

本文提出了名为 Evo 的新型大语言模型,该模型通过构建连续潜变量轨迹,将自回归与扩散生成范式统一为自适应平衡的语义演化框架,在保持高效推理速度的同时,于多项基准测试中实现了卓越的语言理解、推理及代码生成性能。

Junde Wu, Minhao Hu, Jiayuan Zhu, Yuyuan Liu, Tianyi Zhang, Kang Li, Jingkun Chen, Jiazhen Pan, Min Xu, Yueming Jin2026-03-10🤖 cs.LG

Photons = Tokens: The Physics of AI and the Economics of Knowledge

该论文通过将大语言模型的“令牌”定义为具有可测量热力学成本的物理量,结合信息论、热力学及经济学原理构建了全球令牌供需模型,旨在量化人类向 AI 系统提出有意义问题的物理与经济上限,并指出在算力约束下,决定性的挑战并非能回答多少问题,而是如何确定哪些值得提问。

Alec Litowitz, Nick Polson, Vadim Sokolov2026-03-10🔬 physics

HEARTS: Benchmarking LLM Reasoning on Health Time Series

该论文提出了名为 HEARTS 的统一基准,旨在通过整合 16 个真实数据集和 110 项任务来评估大语言模型在健康时间序列上的分层推理能力,研究发现当前模型在复杂时序推理上表现不佳且单纯扩大规模无法解决这一问题,从而为开发下一代医疗推理智能体提供了标准化测试平台。

Sirui Li, Shuhan Xiao, Mihir Joshi, Ahmed Metwally, Daniel McDuff, Wei Wang, Yuzhe Yang2026-03-10🤖 cs.LG

Trust Aware Federated Learning for Secure Bone Healing Stage Interpretation in e-Health

本文提出了一种基于自适应信任评分机制的联邦学习框架,通过利用频率响应数据的频谱特征来解读骨愈合阶段,有效解决了分布式医疗传感环境中不可靠或对抗性参与者带来的安全挑战,从而在保障模型完整性的同时提升了训练稳定性与预测性能。

Paul Shepherd, Tasos Dagiuklas, Bugra Alkan, Joaquim Bastos, Jonathan Rodriguez2026-03-10🤖 cs.LG