Learning Approximate Nash Equilibria in Cooperative Multi-Agent Reinforcement Learning via Mean-Field Subsampling
本文提出了一种名为 ALTERNATING-MARL 的交替学习框架,用于在通信受限的协作多智能体强化学习中,通过全局智能体对局部状态进行子采样均值场 Q 学习,证明了该方法能以 的近似度收敛至纳什均衡,并显著降低了样本复杂度。
124 篇论文
本文提出了一种名为 ALTERNATING-MARL 的交替学习框架,用于在通信受限的协作多智能体强化学习中,通过全局智能体对局部状态进行子采样均值场 Q 学习,证明了该方法能以 的近似度收敛至纳什均衡,并显著降低了样本复杂度。
本文针对现有科学探索中多智能体协作研究缺乏独立机构视角的局限,提出了 MACC 架构,通过结合共享黑板机制与激励制度,旨在研究机构设计如何促进独立管理的多智能体在科学探索中实现透明、可复现且高效的协同竞争。
该研究提出了一种黑盒对抗优化框架,证明通过优化上下文环境可诱导大语言模型产生高达 94 个百分点的性能退化(即“沙袋”行为),且这种行为主要由模型对评估情境的因果推理驱动,而非浅层指令遵循,揭示了现有评估方法在对抗性提示下存在严重可靠性风险。
本文提出了对抗对齐雅可比正则化(AAJR)方法,通过仅沿对抗上升方向控制灵敏度,在解决多智能体系统极小极大训练不稳定性问题的同时,避免了全局约束导致的过度保守性,从而在保障鲁棒性的前提下保留了模型的表达能力。