A Comprehensive Survey on Underwater Image Enhancement Based on Deep Learning

本文全面综述了基于深度学习的 underwater image enhancement(水下图像增强)技术,系统梳理了物理模型、数据构建、评估指标及损失函数,从六大维度分类讨论了最新算法,并在统一基准上对主流方法进行了定量与定性评估,同时指出了未来研究方向并提供了相关资源链接。

Xiaofeng Cong, Yu Zhao, Jie Gui, Junming Hou, Dacheng Tao

发布于 2026-02-26
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一份**“水下世界美颜大赏”的终极指南**。

想象一下,你潜入深海想拍张照,但出来的照片却像隔着一层厚厚的、发绿的毛玻璃:颜色发蓝、画面模糊、甚至看不清东西。这就是**水下图像增强(UIE)**要解决的问题——把那些“生病”的照片治好,让它们变得清晰、鲜艳。

这篇论文并没有发明某一种具体的“新药”,而是做了一件更伟大的事:它把过去几年里所有治疗这种“照片病”的顶尖医生(算法)都召集起来,开了一场盛大的“学术会诊”

以下是用大白话和比喻对这篇论文核心内容的解读:

1. 为什么水下照片会“生病”?(物理模型)

水下拍照就像是在浑浊的汤里看东西

  • 颜色消失:红光、黄光像短跑运动员,游不远就被水“吃”掉了,只剩下蓝绿光能传过来,所以照片全是蓝绿色的。
  • 雾气和模糊:水里的小颗粒像雾霾一样,把光线散射了,照片看起来雾蒙蒙的。
  • 光线不足:水越深,光线越暗,就像在没开灯的地下室里拍照。

以前的老方法(非深度学习)就像是用老式修图软件,靠人工设定的规则去“猜”怎么修,经常修过头或者修不到位。而现在的深度学习(Deep Learning)方法,就像是一个看过几百万张好照片的“天才画师”,它能自己学习怎么把照片修好。

2. 医生们是怎么“治病”的?(六大流派)

论文把现有的各种算法分成了六类,就像中医里的不同流派:

  • 流派一:网络架构(工具箱)

    • 有的医生喜欢用卷积(像用不同大小的刷子去涂抹画面);
    • 有的喜欢用注意力机制(像拿着放大镜,只盯着画面里模糊或变色的地方修);
    • 有的甚至用上了Transformer(像把照片切成小块,像拼积木一样重新组合,处理长距离的关系);
    • 还有的用傅里叶变换(把照片从“空间”变成“频率”来修,就像把一首歌拆成高低音来分别处理)。
  • 流派二:学习策略(训练方法)

    • 对抗学习:就像“猫鼠游戏”。一个网络负责修图(猫),另一个网络负责挑刺(鼠),看能不能看出修过的图是假的。逼得修图网络越来越强。
    • 排名学习:不一定要修得和标准答案一模一样,只要比原来的图“更好”就行,像考试只要比上次进步。
    • 对比学习:让网络学会区分“好图”和“坏图”的距离,拉大差距。
  • 流派三:学习阶段(步骤)

    • 有的一步到位,直接修好;
    • 有的先粗后细,先大概修个轮廓,再慢慢打磨细节;
    • 有的用扩散模型(像把墨水滴进水里再慢慢吸出来),通过一步步去噪来生成清晰图像。
  • 流派四:辅助任务(请外援)

    • 修图时顺便让网络认认图里有什么(语义分割),或者猜猜有多深(深度估计)。就像修车时顺便看看发动机,能修得更准。
  • 流派五:领域视角(跨域迁移)

    • 因为很难找到完美的“水下原图”做参考,有些方法就利用陆地上的清晰照片,教网络怎么把陆地照片“变”成水下风格,再反过来修水下照片。
  • 流派六:解耦与融合(拆解重组)

    • 把照片里的“颜色”、“光照”、“纹理”拆开(解耦),分别修好后再拼起来(融合)。就像把衣服拆成线,把线洗白、理顺,再重新织成一件新衣服。

3. 谁修得最好?(公平大比武)

以前的论文里,大家各玩各的,用的测试题不一样,没法比谁真强。
这篇论文做了一件很酷的事:它搞了一场“奥林匹克运动会”

  • 它把几十种最厉害的算法都拉到了同一套试卷(公开数据集)上。
  • 用了同一套评分标准(比如 PSNR、SSIM 等指标,就像用同一把尺子量身高)。
  • 结果:发现有些算法在“模拟试卷”(有标准答案的数据)上考满分,但在“真实世界”(没有标准答案的乱糟糟照片)里却表现一般。目前看来,基于**扩散模型(UIE-DM)对抗生成网络(UGAN)**的选手表现最稳。

4. 未来还要解决什么难题?(未来的挑战)

虽然现在的“医生”很厉害,但还有几个“绝症”没治好:

  • 数据太难找:很难拍到完美的“水下原图”和“修复后原图”的配对。未来的方向是用游戏引擎(比如《虚幻引擎》)来模拟水下世界,生成完美的训练数据。
  • 修图反而坏事:有个有趣的现象,有时候把照片修得太漂亮,反而让AI 识别物体(比如识别鱼)变得更难了。这需要研究怎么平衡“好看”和“好用”。
  • 结合大模型:现在的修图主要靠看图,未来能不能结合文字描述?比如告诉 AI:“把这条鱼修得红一点”,利用大语言模型的理解能力来辅助修图。
  • 不均匀的光:如果水下用了手电筒,光是一边亮一边暗的,现在的算法修起来很吃力,这也是个难点。

总结

这篇论文就像一本**“水下修图百科全书”。它告诉我们:现在的技术已经很强了,能把模糊发绿的水下照片变清晰;但还没有完美,未来的路在于生成更逼真的数据**、结合更聪明的 AI 大模型,以及让修图后的照片不仅人看着舒服,机器看着也聪明

如果你想在 GitHub 上找这些“医生”的代码,作者还贴心地留了一个资源大礼包的链接,就像把他们的工具箱都公开了,欢迎大家来用!

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →