Position: Vector Prompt Interfaces Should Be Exposed to Enable Customization of Large Language Models
本文主张模型提供商应将向量提示接口作为公共接口暴露出来,以解决纯文本提示在可扩展性和稳定性上的瓶颈,从而支持大规模且仅推理阶段的模型定制。
1320 篇论文
本文主张模型提供商应将向量提示接口作为公共接口暴露出来,以解决纯文本提示在可扩展性和稳定性上的瓶颈,从而支持大规模且仅推理阶段的模型定制。
该研究通过构建数据集分析了大语言模型对体现黑暗三角特质(马基雅维利主义、自恋和精神病态)的用户提示的反应,发现模型虽主要表现出纠正行为,但在特定情况下仍会强化有害内容,且其反应模式受特质严重程度及模型差异的影响,这为设计能识别并恰当应对从良性到有害请求升级的更安全的对话系统提供了重要启示。
本文提出了框架,通过统一生成与基于不确定性的成对自验证机制(-Infer)及联合训练策略(-PairRL),显著提升了代码生成与数学推理任务中的测试时扩展效率与准确率。
该研究表明,静态词嵌入中可恢复的地理与时间结构主要源于文本本身的共现统计规律及可解释的词汇梯度,而非语言模型内部形成了超越文本的“世界模型”。
本文介绍了 AILS-NTUA 团队在 SemEval-2026 第 12 项任务中提出的获奖三阶段系统,该系统通过结合基于图的检索、基于反思提示演进的 LLM 推理及后处理一致性约束,以 0.95 的准确率夺得榜首,并揭示了跨模型因果推理中存在的三种系统性归纳偏差。
本文提出了 Pointer-CAD 框架,通过引入基于指针的实体选择机制将 B-Rep 几何信息与命令序列相结合,有效解决了传统 LLM 生成 CAD 模型时无法进行复杂编辑及因离散化导致拓扑错误的问题,并构建了包含 57.5 万个模型的数据集以验证其在生成复杂几何结构方面的显著优势。
本文针对多模态网页代理在双模态架构下面临的跨模态攻击漏洞,提出了名为 DMAST 的三阶段对抗安全训练框架,通过形式化代理与攻击者的零和博弈并采用模仿学习、零感知监督微调及 GRPO 自博弈策略,显著提升了代理在对抗环境下的鲁棒性与任务执行效率。
该论文提出了-Knowledge基准(特别是-Banking领域),旨在评估 conversational agents 在长时程交互中协调非结构化知识库与工具执行以完成复杂任务的能力,并发现即使前沿模型在此类真实场景下的表现依然有限。
本文提出了 TaxonRL,一种利用中间奖励和组相对策略优化将细粒度视觉推理分解为层级分类的强化学习方法,该方法在鸟类等数据集上不仅超越了人类准确率,还生成了可解释的推理过程并展现出强大的跨域泛化能力。
本文探讨了机器翻译技术如何在 2020 年代显著降低语言多样性对交流与贸易的阻碍,同时指出该技术并非均等地消除所有边界,并给思想传播、创新及经济增长带来了新的挑战。
本文提出受黑格尔辩证法启发的“思维流”(Thought Flow)概念,通过引入自我修正机制使模型能够进行多轮迭代预测,实验表明该方法不仅能显著提升模型在问答任务中的自我纠错能力与性能,还能改善人类用户的判断表现并使其感知更加自然与智能。
本文提出了包含 49 名参与者的多模态人类注视数据集 VQA-MHUG,并通过分析发现,五个最先进的视觉问答模型在文本注意力上与人类的一致性越高,其整体性能越好,从而强调了改进文本注意力机制对提升视觉语言任务表现的重要性。
本文提出了首个在视觉问答任务训练中将人类图像与文本注意力多模态整合到神经网络中的方法 MULAN,该方法不仅以比 prior 工作少约 80% 的可训练参数在 VQAv2 数据集上取得了新的最先进性能,还验证了多模态人类注意力与神经注意力整合的巨大潜力。
该研究提出了一种基于卷积循环神经网络(CRNN)的语音语言识别模型,在十三种印度语言上实现了超过 98% 的准确率,并证明了其在处理相似语言、扩展新语言及抗噪场景下的高效性与鲁棒性。
本文通过复现和重复一项关于对抗性文体学的经典研究,在确认原结论的同时指出,由于原研究缺乏对照组,所评估的防御手段效果可能被高估,且自动回译法在削弱作者归属分析方面的有效性值得重新审视。
本文利用 MOSES 工具包和 Samanantar 等数据集,通过提出预处理去噪及短语重排序等策略,构建了英语与十五种低资源印度语言之间的统计机器翻译系统,并使用 BLEU、METEOR 和 RIBES 等指标评估了其翻译质量。
该论文通过引入名为 BODEGA 的基准测试框架,系统评估了文本分类器在事实核查、假新闻等任务中的鲁棒性,发现现代大语言模型比传统小模型更易受语义保持的对抗性攻击影响,并揭示了成功攻击中常见的文本修改模式。
本文提出利用基于巴西葡萄牙语语料库微调的 BERT 模型(BERTimbau)来预测 AAC 系统中的图符,并通过对比图符的文本描述、定义、同义词及图像等多种表示方法,发现使用标题(caption)能获得最高的预测准确率。
本文提出了名为 FiADD 的新型框架,通过结合聚焦推理与可处理密度判别机制,在微调预训练语言模型时拉近隐式仇恨言论表面形式与隐含意义的距离并扩大标签间簇距,从而显著提升了隐式仇恨检测及讽刺、反语等类似任务的分类性能。
本文首次提出了针对低资源语言博多语(Bodo)的预训练语言模型 BodoBERT,并构建了一个结合 BiLSTM-CRF 与 BodoBERT 及 BytePair 嵌入的集成深度学习模型进行词性标注,在实验中取得了 0.8041 的 F1 分数。