ChimeraLoRA: Multi-Head LoRA-Guided Synthetic Datasets
ChimeraLoRA 提出了一种将类共享 LoRA 与多图像特定 LoRA 相结合的新方法,通过语义增强训练和基于狄利克雷分布的混合生成策略,在数据稀缺场景下合成既具多样性又富含细节的图像,从而显著提升下游分类任务的准确性。
7779 篇论文
ChimeraLoRA 提出了一种将类共享 LoRA 与多图像特定 LoRA 相结合的新方法,通过语义增强训练和基于狄利克雷分布的混合生成策略,在数据稀缺场景下合成既具多样性又富含细节的图像,从而显著提升下游分类任务的准确性。
本文提出了首个文档伪造检测零样本基准 DOCFORGE-BENCH,评估发现现有方法在真实部署场景下因伪造区域占比极低导致标准阈值严重失准,揭示了校准而非表征能力才是当前文档伪造检测面临的主要瓶颈。
本文提出了一种名为 MAQP 的多模态对抗质量策略,通过异构双补丁优化方案(HDPOS)和梯度级模态平衡策略(GLMBS),有效解决了基于 RGB-D 模态的机器人抓取中因深度无关性导致的现有对抗补丁方法失效问题,从而提升了人机交互中的抓取安全性。
该论文证明了对于大于约 35.31 的 范数,-近似格覆盖半径判定问题(-)是 NP 难的,其中逼近因子 大于 1 且当 趋于无穷大时收敛于 9/8。
本文介绍了 Uber Eats 构建的统一多语言、多垂直领域语义检索系统,该系统通过基于海量交互数据微调 Qwen2 双塔模型,结合 InfoNCE 与三元组损失训练及 Matryoshka 表示学习技术,在六个市场和三个业务垂直领域显著提升了召回率。
本文提出了一种名为 HRFNA 的混合余数浮点数值架构,该架构通过结合无进位余数算术与轻量级指数缩放,在 FPGA 上实现了高吞吐量、低资源消耗及严格误差界定的高效计算,显著提升了科学计算与 CAD 应用的能效与性能。
本文提出了一种基于列生成技术的算法优化框架,用于解决具有凸性链路成本函数的多商品流问题(包括可拆分和不可拆分两种变体),旨在通过优化流量分布来提升电信网络资源利用效率并应对带宽受限导致的性能下降。
该论文通过受控的因子实验设计,实证研究了不同规模与类型的语言模型在 Verilog 代码生成任务中与提示工程策略(如结构化输出、思维链及进化优化)的交互规律,揭示了通用趋势与特定模型 - 提示组合间的差异。
本文提出了名为 AnalogToBi 的框架,通过结合二分图表示、电路类型令牌实现的功能控制以及语法引导解码,有效解决了现有方法在模拟电路拓扑生成中存在的功能可控性差、数据记忆和电气无效性问题,实现了无需人工干预即可生成高有效性、高新颖性且经 SPICE 仿真验证的高质量模拟电路拓扑。
该研究基于组织能力理论与中小企业数字化转型文献,构建了一个包含八个能力维度、五个成熟度等级及四种发展路径的 AI 成熟度框架,旨在突破传统企业中心视角的局限,通过强调资源约束、非正式治理及生态系统嵌入性,更准确地刻画中小企业 AI 能力发展的非线性与异质性特征。
本文提出了一种完全本地化、无需调用外部 API 的端到端流水线,利用本地大语言模型将讲座 PDF 转换为多项选择题,并通过确定性质量控制机制确保生成内容的安全性与隐私性,最终发布了包含 24 道经过严格验证的试题数据集。
该论文提出了一种通过用单次平方运算替代实数乘法、用三次平方运算替代复数乘法来显著降低矩阵乘法和卷积硬件资源消耗的新方法,并设计了相应的平方基脉动阵列和张量核心架构。
本文提出了 RSH-SpMM,一种面向 GPU 的细粒度行结构混合稀疏矩阵乘法框架,通过自适应行划分、RS-Tile 表示及负载均衡混合内核等技术,有效解决了真实世界稀疏矩阵极度不规则导致的 Tensor Core 利用率低和吞吐量不稳定问题,在各类稀疏负载中实现了 1.27 至 6.13 倍的性能加速。
本文提出了 FormalRTL,一种通过集成软件参考模型作为形式化规范来指导生成与验证、从而解决工业级数据路径设计挑战的可扩展多智能体框架。
本文提出了 Kareto,一种针对大语言模型 KV 缓存的自适应多目标分层存储配置优化器,它通过利用收益递减剪枝策略高效搜索帕累托前沿,并结合细粒度自适应调优机制,在真实工作负载下实现了吞吐量、延迟或成本等指标相比固定配置显著更优的平衡。
本文旨在将原本仅支持生成顺序代码的 ACETONE 框架扩展至多核架构,通过定义处理器分配问题、调研现有方案,并计划实现调度启发式算法、同步机制模板及最坏情况执行时间评估,以生成并行代码。
本文提出了 ChatNeuroSim,一种基于大语言模型智能体的框架,旨在通过自动化工作流和引入设计空间剪枝技术,解决传统存内计算(CIM)架构设计中依赖人工解读、迭代耗时及优化效率低下的问题,从而实现 DNN 加速器的快速部署与配置优化。
本文介绍了开源 Python 框架 `electoral_sim`,该框架通过在二维意识形态空间中模拟选民分布,比较了包括比例代表制在内的多种选举机制及一种基于玻尔兹曼软核的假设机制,以选举结果与选民几何中位数的欧几里得距离为指标评估其表现。
本文提出了 JigsawServe 框架,通过自适应选择模型变体、细粒度 GPU 空间分区以及任务图感知的资源预算分配,联合优化延迟、精度与成本,从而显著提升了复合推理系统在数据中心 GPU 上的服务效率与资源利用率。
该论文提出了 Granulon,一种基于 DINOv3 的多模态大语言模型,通过文本条件粒度控制器和自适应令牌聚合模块,实现了从像素级到粗粒度语义的动态自适应融合,显著提升了细粒度视觉理解能力并降低了幻觉。