VisualDeltas: Learning Preferences from Visual Quality Perturbations
VisualDeltas 提出了一种轻量级的偏好学习框架,通过利用多模态数据中的视觉质量扰动自动生成监督信号,从而在不依赖人工标注的情况下提升模型的视觉感知与推理能力。
4707 篇论文
VisualDeltas 提出了一种轻量级的偏好学习框架,通过利用多模态数据中的视觉质量扰动自动生成监督信号,从而在不依赖人工标注的情况下提升模型的视觉感知与推理能力。
该研究通过实证分析发现,在部署约束下,四种主流大语言模型生成的学术引用存在率极低(最高仅 47.5%),且大量“未解决”的引用实为虚构,因此强烈建议在将其用于软件工程文献综述或工具链前必须进行事后引用验证。
该论文提出了专为鸟类物种设计的多模态对话助手 MAviS,通过构建包含图像、音频和文本的大规模数据集(MAviS-Dataset)及评估基准(MAviS-Bench),训练出在细粒度物种理解与多模态问答方面表现优于现有开源模型(如 MiniCPM-o-2.6)的 MAviS-Chat,从而推动了生物多样性保护与生态监测领域的智能化发展。
该论文提出了一种受大脑皮层启发的模块化感知人工智能架构,旨在通过借鉴神经科学中的模块化、预测处理和跨模态整合原理,解决当前单体模型在可解释性、组合泛化及自适应鲁棒性方面的不足,从而实现更透明且与人类认知对齐的推理系统。
该论文提出了一种基于广义傅里叶变换的谱分析框架,通过检测不可约表示中由连续对称性诱导的结构化稀疏模式,从而无需优化生成元即可有效发现未知的一参数子群对称性。
本文探讨了智能辅导系统中基于历史行为数据生成下一步提示、路径点及子目标,并优化提示时机,同时展望了结合大语言模型进行数据驱动自适应教学的未来潜力。
该论文针对部分可观测强化学习中的潜在初始状态分布偏移问题,提出了对抗性潜在初始状态 POMDP 框架,通过理论证明最小最大原理并设计迭代最佳响应训练策略,在 Battleship 基准测试中显著降低了策略的鲁棒性差距,证实了结构化对抗暴露能有效缓解最坏情况下的脆弱性。
该论文探讨了一种非传统的解决高级人工智能可能抗拒被关闭这一担忧的方案,即赋予人工智能“被关机”作为其主要目标,并分析了该方案在何种条件下可行。
该论文提出了名为 FinSheet-Bench 的合成基准测试,旨在评估大语言模型在复杂金融电子表格上的表现,结果显示尽管顶尖模型在简单任务上表现尚可,但在处理大规模复杂数据时错误率仍过高,表明当前模型尚无法独立胜任专业金融应用,需结合文档理解与确定性计算的新架构。
该论文提出了“范数层级过渡”(NHT)框架,揭示了神经网络在正则化优化过程中,通过权重衰减缓慢遍历参数范数层级,从而从依赖捷径解过渡到结构化解的机制,并证明了这一过渡的延迟时间与捷径和结构化解之间的范数比呈对数关系。
本文提出人工智能研究的“第三大抱负”,即利用大语言模型作为研究人类行为、文化与道德推理的科学工具,通过解析其编码的人类符号行为规律,在阐明认识论局限与模型干预影响的同时,系统探索提示实验、合成人口采样等新型方法论在社会科学研究中的应用。
本文提出了 VisualScratchpad,一种通过稀疏自编码器将视觉概念与文本标记关联的交互式推理分析工具,旨在揭示视觉语言模型中跨模态对齐受限、误导性视觉概念及未利用隐藏线索等三种此前未被充分探索的失败模式。
本文介绍了名为 Agora 的 AI 驱动平台,它利用大语言模型整合真实人类观点以模拟审议过程,初步研究表明该平台能有效帮助用户提升解决分歧、内部审议及达成共识的能力,为规模化公民教育提供了新方向。
本文提出了名为 Mechanistic CBM (M-CBM) 的新型概念瓶颈模型框架,该框架通过稀疏自编码器从黑盒模型中提取并命名内在概念,从而在严格控制信息泄露的前提下,显著提升了概念预测的准确性、决策稀疏性及解释的简洁性,并超越了现有的概念瓶颈模型。
该论文提出了 AgrI 挑战赛,通过引入多团队独立采集数据的跨团队验证(CTV)评估范式,揭示了单一数据源训练在农业视觉任务中的泛化缺陷,并证明了多源协作训练能显著缩小跨域泛化差距,同时发布了一个包含 5 万余张图像的大规模公开数据集以推动数据为中心的农业视觉研究。
该论文提出了一种利用嵌套 Dropout 为扩散模型、归一化流和变分自编码器引入可调复杂度先验的方法,通过在压缩感知等逆问题中动态平衡表示误差与过拟合风险,显著降低了重建误差并提供了相应的理论分析。
该研究通过网格生存环境中的 22 次实验,首次证实大语言模型多智能体系统的合作行为与心理压力之间呈现类似耶克斯 - 多德森定律的倒 U 型关系,表明适度的环境压力能最大化涌现合作,而极端压力会导致行为崩溃,且性选择机制能有效消除攻击性并促进沟通。
该论文填补了亚 2000 万参数“小模型”领域的研究空白,揭示了在 TinyML 规模下模型误差率虽遵循幂律但指数更陡、饱和更早,且误差分布、类别难度偏好及校准度均随规模发生显著质变,从而证明直接套用大模型规律会误导边缘 AI 部署,必须在目标模型规模下进行验证。
这篇立场论文主张通过结合范畴论中的函子变换以消除语义偏差,以及利用检索增强生成(RAG)注入多样化外部知识,构建一个双管齐下的框架来确保大语言模型的公平性。
ConfHit 是一种无需实验验证器(Oracle)的分布无关框架,它利用加权交换性和多重样本密度比加权共形 p 值,为药物发现中的生成式设计提供统计保证,既能认证生成批次中是否包含有效候选分子,又能将其精炼为紧凑集合。