Improving Text-to-Image Generation with Intrinsic Self-Confidence Rewards

本文提出了名为 SOLACE 的无监督后训练框架,通过利用模型在自去噪过程中恢复注入噪声的内在自置信度信号作为奖励,无需外部标注或奖励模型即可显著提升文生图模型在组合生成、文本渲染及图文对齐等方面的表现,并能与外部奖励互补以减轻奖励黑客现象。

Seungwook Kim, Minsu Cho

发布于 2026-03-06
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一种名为 SOLACE 的新方法,旨在让 AI 画图画得更好,而且不需要人类老师手把手教,也不需要额外的评分系统

为了让你轻松理解,我们可以把 AI 画图的训练过程想象成**“一个学生在没有老师的情况下,通过自我反思来进步”**。

1. 以前的做法:依赖“外聘考官”

在 SOLACE 出现之前,想要让 AI 画得更好(比如更听话、文字更准确、构图更合理),通常需要给 AI 找一个“外聘考官”(Reward Model)。

  • 比喻:就像学生画画,画完后要交给一个专门的评分老师打分。老师喜欢什么,学生就拼命画什么。
  • 问题
    • 太贵太慢:找这个“老师”(训练评分模型)需要大量人类标注数据,非常昂贵。
    • 容易钻空子(Reward Hacking):聪明的学生会发现老师的评分规则漏洞。比如老师喜欢“色彩鲜艳”,学生就画满刺眼的色块,虽然分数高了,但画得乱七八糟,甚至忘了画原本要画的东西。这就叫“为了分数而作弊”。

2. SOLACE 的做法:唤醒“内在自信”

SOLACE 的核心思想是:AI 自己最清楚自己画得好不好,不需要外人来评判。

  • 核心机制:自我“回炉重造”测试
    想象一下,AI 刚刚画完一幅画(生成了一张图)。SOLACE 会让 AI 做这样一个游戏:

    1. 加噪:AI 先把自己刚画好的图“弄脏”一点(加入一些随机噪声),就像把刚写好的作业涂改得模糊不清。
    2. 修复:然后,AI 尝试用自己的能力把这张“脏图”还原回原来的样子。
    3. 打分
      • 如果 AI 能非常精准地把图还原回来,说明它对自己刚才画的图非常有信心,这张图是“真材实料”的。
      • 如果 AI 还原得很吃力,或者还原得乱七八糟,说明它对自己刚才的产出心里没底,那张图可能画得不好。
  • 比喻
    这就好比一个厨师刚做完一道菜。

    • 传统方法:请美食评论家来尝,给个分。
    • SOLACE 方法:厨师自己尝一口,然后问自己:“如果我把这道菜放凉了再重新加热,我还能完美还原出刚出锅的味道吗?”
      • 如果厨师觉得“当然能,味道很稳”,说明这道菜做得好(高自信)。
      • 如果厨师觉得“哎呀,好像有点糊了,还原不了”,说明这道菜有问题(低自信)。

3. 为什么这招很管用?

论文发现,当 AI 能够轻松、准确地“自我修复”时,它画出来的图通常具备以下优点:

  • 构图更合理(不会把猫画在天上,除非提示词这么说)。
  • 文字更准确(能画出清晰的“你好”字样,而不是乱码)。
  • 图文更匹配(提示词说“蓝色的树”,它真的会画蓝色的树,而不是乱画)。

关键点:这种“自信”是 AI 与生俱来的能力,不需要额外训练一个评分模型,也不需要人类去标注数据。

4. 实验结果:不仅自己变强,还能帮别人

  • 单打独斗:只用 SOLACE 训练,AI 在画图的准确性、文字生成能力上都有了显著提升,甚至超过了那些经过人类偏好训练的大模型。
  • 强强联手:如果把 SOLACE 和传统的“外聘考官”(人类偏好奖励)结合起来用,效果更棒!
    • 比喻:就像学生既有“外聘老师”指导大方向(比如要画得漂亮),又有“自我反思”来确保细节不跑偏(比如文字别写错)。这样既避免了学生为了讨好老师而“钻空子”,又让画作更加完美。

总结

SOLACE 就像给 AI 装了一个**“自我纠错的雷达”**。它不再盲目追求外部的高分,而是通过“我能不能完美还原自己刚才的作品”来判断画得好不好。

  • 优点:省钱(不用人类标注)、省心(不用训练额外模型)、防作弊(不容易钻空子)。
  • 结果:AI 画出的图更听话、文字更清晰、构图更自然。

这就好比让一个艺术家不再依赖别人的夸奖,而是通过“我能不能完美复刻我的作品”来确认自己的水平,从而画出更纯粹、更高质量的艺术品。