ReSAM: Refine, Requery, and Reinforce: Self-Prompting Point-Supervised Segmentation for Remote Sensing Images
本文提出了一种名为 ReSAM 的点监督自提示框架,通过“细化 - 重查询 - 强化”循环机制,仅利用稀疏点标注即可有效克服域偏移问题,显著提升了 Segment Anything Model 在遥感图像分割任务中的性能与鲁棒性。
4368 篇论文
本文提出了一种名为 ReSAM 的点监督自提示框架,通过“细化 - 重查询 - 强化”循环机制,仅利用稀疏点标注即可有效克服域偏移问题,显著提升了 Segment Anything Model 在遥感图像分割任务中的性能与鲁棒性。
本文提出了 InnoGym,这是首个旨在通过性能增益和新颖性指标系统评估 AI 代理创新潜力的基准与框架,揭示了当前代理在创造力与有效性之间存在的差距。
本文提出了 AdaptVision,一种受人类主动视觉机制启发的视觉语言模型新范式,它通过粗到细的自适应视觉令牌获取策略和去耦回合策略优化(DTPO)强化学习框架,在显著减少视觉令牌消耗的同时实现了优于现有高效方法的性能。
本文提出了名为 FARL 的框架,通过利用傅里叶分析将图像的相位(结构)与幅度(风格)特征解耦,并借助双交叉注意力机制引导视觉 - 语言模型进行自适应,从而显著提升了其在少样本场景下的泛化能力。
本研究提出了一种基于轻量级无监督变分自编码器(VAE)的模型,利用 3 米分辨率的 Planet Labs 4 波段卫星影像,在约 24 至 30 小时内实现了对苏丹冲突相关火灾区域的近实时检测,其性能在召回率和 F1 分数上均优于传统变化检测方法。
该论文通过构建控制变量实验框架,系统性地揭示了在持续测试时适应任务中,掩码家族(空间域与频域)的选择对模型稳定性的决定性影响,指出在基于 Patch 的架构中空间掩码能通过保持结构连贯性避免灾难性遗忘,而频域掩码的适用性则高度依赖于架构与任务的匹配程度。
本文提出了名为 Brain-Semantoks 的自监督框架,通过语义分词器和自蒸馏目标学习 fMRI 时间序列的抽象动态表示,从而在无需领域适应的情况下显著提升下游任务性能及泛化能力。
本文提出了-CLIP,这是一种通过跨注意力机制实现多粒度文本与视觉区域层级对齐,并引入-上下文对比对齐损失(-CAL)来平衡严格匹配与上下文关联的框架,从而在无需硬负样本的情况下显著提升了细粒度视觉 - 语言检索性能并达到了最先进水平。
CRISP 提出了一种从单目视频中恢复可模拟的人体运动与场景几何的新方法,其核心在于通过拟合平面基元构建凸且干净的仿真就绪几何、利用人体接触建模补全遮挡区域,并结合强化学习控制器确保物理合理性,从而显著降低了运动跟踪失败率并提升了仿真效率。
本文提出了 Solution Flow Models (SoFlow) 框架,通过结合流匹配损失与无需计算雅可比 - 向量积(JVP)的解一致性损失,实现了从 scratch 训练的高效单步生成模型,并在 ImageNet 256x256 数据集上超越了 MeanFlow 模型。
本文提出了一种结合深度学习图像分析与包含家族史数据的可解释多模态 AI 框架,旨在通过整合遗传风险因素提升皮肤病诊断的准确性与个性化水平,并规划了后续的临床验证以推动其在医疗工作流中的实际部署。
本文提出了名为 GeoTeacher 的半监督 3D 目标检测框架,通过设计基于关键点几何关系的监督模块和引入距离衰减机制的体素级数据增强策略,有效解决了有限标注数据下模型对物体几何信息敏感度低的问题,从而在 ONCE 和 Waymo 数据集上实现了新的最先进性能。
该研究提出了一种名为"ForCM"的新方法,通过将多种深度学习模型(如 AttentionUNet 和 ResUNet)与面向对象图像分析(OBIA)相结合,利用 Sentinel-2 多光谱影像显著提升了亚马逊雨林森林覆盖的制图精度(最高达 95.64%),并验证了结合开源工具进行全球环境监测的潜力。
本文提出了一种名为 CEM 的即插即用插件,通过最小化累积误差来动态优化缓存策略,从而在无需额外计算开销的情况下显著提升了现有 Diffusion Transformer 加速方法的生成保真度。
该论文提出了以“模型可读性”为设计原则的“点可解释网络(PiNets)”框架,通过构建伪线性结构确保神经网络生成的解释在本质上与预测过程直接对齐,从而在图像分类与分割任务中实现了兼具忠实性、鲁棒性和充分性的可信解释。
TP-Blend 是一种无需训练的轻量级框架,通过交叉注意力对象融合(CAOF)和自注意力风格融合(SASF)两个互补模块,将物体提示与风格提示同时注入扩散模型的去噪轨迹,从而在保持几何结构完整性的同时实现高分辨率、照片级真实的物体与风格精准融合。
该论文提出了一种名为 Copy-Trasform-Paste 的零样本 3D 物体对齐框架,通过结合 CLIP 驱动的梯度优化、几何感知约束(如软 ICP 和穿透损失)以及分阶段调度策略,在无需训练新模型的情况下,仅凭文本提示即可实现语义准确且物理合理的 3D 网格空间对齐。
本文提出了感知反事实测地线(PCG)方法,通过利用鲁棒视觉特征构建感知黎曼度量来引导潜空间优化,从而生成符合人类感知、位于流形上且语义有效的反事实解释,克服了现有方法因几何失配导致的语义漂移和对抗性崩溃问题。
本文提出了 Vision-DeepResearch,一种通过冷启动监督与强化学习训练多轮、多实体及多尺度视觉文本搜索能力的多模态大模型新范式,使其在复杂噪声环境下能进行深度推理与广泛证据聚合,从而显著超越现有模型及基于 GPT-5 等闭源强基座的工作流。
该论文针对传统异常检测忽略上下文依赖性的局限,提出了一个名为 CAAD-3K 的新基准和一种基于视觉 - 语言表征的条件兼容性学习框架,通过建模主体与上下文的兼容性关系,在多个数据集上实现了显著优于现有方法的性能。