AODNet
【20231117】读研期间没有对阅读的文章进行总结,没想到毕业反而有了机会。即日起会对阅读过的文章要点进行梳理记录,希望这一习惯能够坚持下去。
学术的角度:看论文要学习作者如何逻辑严谨的自证
落地的角度:只用看以下六点,创新点是什么、设计思路是什么、用了什么数据、达成什么效果(比前人好多少)、有没有代码、能否复现。
ICCV2017、微软亚研院、有代码
Li B, Peng X, Wang Z, et al. Aod-net: All-in-one dehazing network[C]//Proceedings of the IEEE international conference on computer vision. 2017: 4770-4778.
GitHub - weberwcwei/AODnet-by-pytorch: Image Dehaze, Pytorch, An All-in-One Network for Dehazing, AOD-NetGitHub - walsvid/AOD-Net-PyTorch: Pytorch implementation of AOD-Net : All-in-One Network for Dehazing - ICCV2017
1、Abstract
BR:摘要真的提炼了文章最最最核心的要点,看懂它等于看懂文章 90% 的内容。
- reformulate atmospheric scattering model
- directly generates the clean image through a light-weight CNN
2、Introduction
BR:以往方式的不足是什么,作者最大的创新是什么。
- However, the estimation is not always accurate, and some common pre-processing such as guildfiltering or softmatting will further distort the hazy image generation process [8], causing sub-optimal restoration performance. Moreover, the non-joint estimation of two critical parameters, transmission matrix and atmospheric light,may further amplify the error when applied together.
- the major novelty of AOD-Net as the first to optimize the end-to-end pipeline from hazy images to clean images, rather than an intermediate parameter estimation step.
2.1 It is trained on synthesized hazy images, and tested on both synthetic and real natural images.——用的合成有雾图像做训练,论文实验数据和项目落地能一样吗、差距到底会有多大?
2.2 用的评价指标:PSNR、SSIM、视觉效果
2.3 As a lightweight model, AOD-Net has achieved a fast processing speed, costing as low as 0.026 second to process one 480 × 640 image with a single GPU——什么 GPU,26ms 是落地可以接受的速度吗?落地时延的要求是多少?TBD
3、Related Work
BR:通常不需要看这部分内容,记录是因为要做传统方法和深度学习方法的梳理总结。
3.1 传统方法去雾
- [23] 通过最大化局部对比度来消除雾霾。
- [6] 提出了一种通过估算景物反照率的物理真值方法。
- DCP [8],[24] 发现了有效暗信道先验(DCP) 来更可靠地计算传输矩阵。
- BCCR [12] 进一步加强了边界约束和上下文正则化,以获得更清晰的恢复图像。
- ATM [22] 提出一种自动恢复大气光的加速方法。
- CAP [32] 开发了一种颜色衰减先验,并对朦胧图像建立了场景深度的线性模型,然后以监督的方式学习模型参数。
3.2 深度学习方法去雾
- [17] MSCNN 多尺度CNN,首先生成一个粗尺度的传输矩阵,然后对其进行细化。
- [3] 提出了一种可训练的端到端介质传输估计模型,称为DehazeNet。它以模糊图像为输入,输出其传输矩阵。结合经验规则估计的全球大气光,通过大气散射模型恢复无雾图像。
上述方案的特点
基于一个认知:要想从有雾图中恢复干净的图片,准确估计介质传输图是关键。(环境光单独计算)
不足:尽管思路是直观且有物理基础的,该方法不直接测量或最小化重建畸变。产生次优的图像恢复质量可能性增大,因为每个单独估计步骤中的误差将累积并可能相互放大。
3.3 AODNet
- 本文的 AOD-Net 直接输出去雾干净的图像,没有任何中间步骤估计参数。与 [3] 从模糊图像到传输矩阵的端到端学习不同,AOD-Net的完全端到端构建弥合了有雾图像和干净图像之间的最终目标差距。
上述方案的特点
基于一个认知:物理模型可以用一种“端到端”的方式来表述,所有的参数都可以用一个统一的模型来估计。
4、Method
BR:放几组公式说明作者的设计思路。坦白说,从我的思维逻辑这些公式包括思路说明更像是实验验证可行后找的解释。实验确实在证明方法的有效性,但写文章更像是一种“自圆其说”,逻辑严谨的自证。
BR:作者将求解过程转变为求 K(x) 的过程
- Since K (x) is dependent on I (x), we then aim to build an input-adaptive deep model, and train the model by minimizing the reconstruction errors between its output J (x) and the ground truth clean image I(x).
- To justify why jointly learning t(x) and A in one is important, we compare the two solutions in experiments (see Section 4 for the synthetic settings). As observed in Figure 3, the baseline tends to overestimate A and cause overexposure visual effects.
- AOD-Net clearly produces more realistic lighting conditions and structural details, since the joint estimation of 1/t(x) and A enables them to mutually refine each other. In addition, the inaccurate estimate of other hyperparameters (e.g., the gamma correction), can also be compromised and compensated in the all-in-one formulation.
Results
客观数据对比
the subjective visual quality??
dataset
the indoor NYU2 Depth Database [21]
the Middlebury stereo database [19, 18, 9]
Thinking
- 作者在related work中,段落前黑体标注重点,这非常友好!
- 不用看他说的天花乱坠的概念。你就看它提不提供代码,不提供的话不用深入看它怎么实现的,留个印象即可。
- 看用的数据集和评价指标!!
- 我无法用图二主观判断得出本文方法好的依据。
1、传统的去雾方法+实现原理+优缺点+性能指标
读图环节
看图说话,描述每幅图作者试图在论证什么。