当前位置: 首页 > article >正文

【论文复现】从零开始搭建图像去雾神经网络

在这里插入图片描述

📝个人主页🌹:Eternity._
🌹🌹期待您的关注 🌹🌹

在这里插入图片描述
在这里插入图片描述

❀ 从零开始搭建图像去雾神经网络

  • A Two-branch Neural Network for Non-homogeneous Dehazing via Ensemble Learning
  • 创新点
  • 网络结构
    • 迁移学习子网
    • 数据拟合子网
  • 本次复现的实验设置
  • 训练本次复现代码所用数据集
  • 结果展示
    • 在O-Haze数据集上的结果
    • 在I-Haze数据集上的结果
    • 在NH-Haze数据集上的结果

A Two-branch Neural Network for Non-homogeneous Dehazing via Ensemble Learning


本文复现了一种简单而有效的基于集成学习的双分支非均匀去雾神经网络。该方法使用一个双分支神经网络分别处理上述问题,然后通过一个可学习的融合尾映射它们的不同特征。
论文地址:https://arxiv.org/pdf/2104.08902.pdf

创新点


  1. 证明了在非均匀去雾挑战中使用ImageNet预训练的有效性。
  2. 构建数据拟合子网作为迁移学习子网的补充,可以提取当前数据分布的更鲜明的特征。
  3. 采用集成学习的思想设计一个可学习的融合尾。

本文所涉及的所有资源的获取方式:这里

网络结构


基于集成学习的双分支非均质去雾网络由两个子网络组成,即迁移学习子网和数据拟合子网。每个子网有着特定的目的:迁移学习子网利用预先训练的权重从输入图像中提取鲁棒全局表示;数据拟合子网对当前数据进行处理。融合层采用这两个子网络的级联特征图,并输出无雾图像。
在这里插入图片描述

迁移学习子网


迁移学习子网是一个编码器-解码器结构的网络。该子网络使用Res2Net作为编码器,因为它在分类任务上有很好的性能。具体来说,在编码器中,该网络只使用了Res2Net的前端部分,没有使用全连接层。Res2Net由ResNet改进,传统的ResNet是一个瓶颈结构,由1×1、3×3、1×1的三层不同大小的卷积层组成。Res2Net为了能够在残差模块中实现多尺度多通道,将中间的3×3模块由Bottle2neck实现。
Bottle2neck的实现代码如下,首先通过torch.split拆分特征向量,除了第一个分支经过卷积之外,拆出来的每个分支通过3x3的卷积之后与下一个分支进行拼接之后分两步,一步保存继续,一步再与下一个分支做拼接。将一个3×3卷积层替换为对每个拆分的通道的3×3卷积使得该模块在不增加额外参数量的同时,泛化性能增强。

```class Bottle2neck(nn.Module):
    expansion = 4

    def __init__(self, inplanes, planes, stride=1, downsample=None, baseWidth=26, scale=4, stype='normal'):

        super(Bottle2neck, self).__init__()

        width = int(math.floor(planes * (baseWidth / 64.0)))
        self.conv1 = nn.Conv2d(inplanes, width * scale, kernel_size=1, bias=False)
        self.bn1 = nn.BatchNorm2d(width * scale)

        if scale == 1:
            self.nums = 1
        else:
            self.nums = scale - 1
        if stype == 'stage':
            self.pool = nn.AvgPool2d(kernel_size=3, stride=stride, padding=1)
        convs = []
        bns = []
        for i in range(self.nums):
            convs.append(nn.Conv2d(width, width, kernel_size=3, stride=stride, padding=1, bias=False))
            bns.append(nn.BatchNorm2d(width))
        self.convs = nn.ModuleList(convs)
        self.bns = nn.ModuleList(bns)

        self.conv3 = nn.Conv2d(width * scale, planes * self.expansion, kernel_size=1, bias=False)
        self.bn3 = nn.BatchNorm2d(planes * self.expansion)

        self.relu = nn.ReLU(inplace=True)
        self.downsample = downsample
        self.stype = stype
        self.scale = scale
        self.width = width

    def forward(self, x):
        residual = x

        out = self.conv1(x)
        out = self.bn1(out)
        out = self.relu(out)

        spx = torch.split(out, self.width, 1)
        for i in range(self.nums):
            if i == 0 or self.stype == 'stage':
                sp = spx[i]
            else:
                sp = sp + spx[i]
            sp = self.convs[i](sp)
            sp = self.relu(self.bns[i](sp))
            if i == 0:
                out = sp
            else:
                out = torch.cat((out, sp), 1)
        if self.scale != 1 and self.stype == 'normal':
            out = torch.cat((out, spx[self.nums]), 1)
        elif self.scale != 1 and self.stype == 'stage':
            out = torch.cat((out, self.pool(spx[self.nums])), 1)

        out = self.conv3(out)
        out = self.bn3(out)

        if self.downsample is not None:
            residual = self.downsample(x)

        out += residual
        out = self.relu(out)

        return out

此外,该网络采用了由通道注意力模块(CA)和像素注意力模块(PA)组成的特征注意作为注意力模块,插入在网络的高维部分以提取图像的结构特征和细节特征。
通道注意力CA的代码如下:
解码器部分,该网络使用用于图像超分辨率恢复的Pixel Shuffle作为该子网中的上采样模块。该模块可以将低分辨的特征图,通过卷积和多通道间的重组得到高分辨率的特征图,在实现时可以直接使用torch库中的nn.PixelShuffle函数,代码如下。
该网络受enhanced pix2pix dehazing network (EPDN)的启发,使用。在训练阶段,在特征进入融合层之前引入了一个增强模块。该模块使用了DCPDN中的金字塔池化模块,以两个3×3的卷积层作为开端,输出结果经平均池化层下采样为4×、8×、16×和32×四个不同尺寸的特征图。不同尺度的特征图提供不同的感受野,帮助图像在不同尺度上重建图像。之后,不同尺度的特征图由1×1卷积层进行降维并恢复到与原始图像尺寸相同的大小,最后与开端卷积层的输出进行拼接,作为最后3×3卷积层的输入。该模块将不同尺度的特征细节融入到最终的结果,起到对恢复的图像特征进行保持增强的作用。该模块的代码如下。

```class Enhancer(nn.Module):
	def __init__(self, in_channels, out_channels):
		super(Enhancer, self).__init__()

		self.relu = nn.LeakyReLU(0.2, inplace=True)

		self.tanh = nn.Tanh()

		self.refine1 = nn.Conv2d(in_channels, 20, kernel_size=3, stride=1, padding=1)
		self.refine2 = nn.Conv2d(20, 20, kernel_size=3, stride=1, padding=1)

		self.conv1010 = nn.Conv2d(20, 1, kernel_size=1, stride=1, padding=0)
		self.conv1020 = nn.Conv2d(20, 1, kernel_size=1, stride=1, padding=0)
		self.conv1030 = nn.Conv2d(20, 1, kernel_size=1, stride=1, padding=0)
		self.conv1040 = nn.Conv2d(20, 1, kernel_size=1, stride=1, padding=0)

		self.refine3 = nn.Conv2d(20 + 4, out_channels, kernel_size=3, stride=1, padding=1)
		#self.upsample = F.upsample_nearest
		self.upsample=F.interpolate

		self.batch1 = nn.InstanceNorm2d(100, affine=True)

	def forward(self, x):
		dehaze = self.relu((self.refine1(x)))
		dehaze = self.relu((self.refine2(dehaze)))
		shape_out = dehaze.data.size()

		shape_out = shape_out[2:4]

		x101 = F.avg_pool2d(dehaze, 32)

		x102 = F.avg_pool2d(dehaze, 16)

		x103 = F.avg_pool2d(dehaze, 8)

		x104 = F.avg_pool2d(dehaze, 4)

		x1010 = self.upsample(self.relu(self.conv1010(x101)), size=shape_out)
		x1020 = self.upsample(self.relu(self.conv1020(x102)), size=shape_out)
		x1030 = self.upsample(self.relu(self.conv1030(x103)), size=shape_out)
		x1040 = self.upsample(self.relu(self.conv1040(x104)), size=shape_out)

		dehaze = torch.cat((x1010, x1020, x1030, x1040, dehaze), 1)
		dehaze = self.tanh(self.refine3(dehaze))

		return dehaze

总览整个迁移子网络,编码器模块加载比随机初始化参数的模型更具鲁棒性的ImageNet[作为预训练参数,但由于其仅使用了Res2net的前端部分,容易使网络丢失恢复图像细节的重要信息。为了改善该问题,本方法建立了第二个子网——数据拟合子网。

数据拟合子网


数据拟合子网由多个残差注意力模块组成,每个残差注意力模块由卷积层和通道注意力组成。对于残差注意力模块的实现如下所示,通道注意力模块有两条分支,一条负责提取不同的通道特征,另一条负责生成特征权重,最后将两个结果进行融合得到通道特征权重。通道注意力的使用突出了显著特征,增强了模型对数据的拟合能力。

```class Residual_CA(nn.Module):
    def __init__(self, channels):
        super(Residual_CA, self).__init__()
        self.PointWise = nn.Conv2d(channels, channels, 1)
        self.RELU = nn.ReLU()
        self.GlobalPlooling = nn.AvgPool2d(1)
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        out1 = self.PointWise(x)
        out1 = self.RELU(out1)
        out1 = self.PointWise(out1)

        out2 = self.GlobalPlooling(out1)
        out2 = self.PointWise(out2)
        out2 = self.RELU(out2)
        out2 = self.PointWise(out2)
        out2 = self.sigmoid(out2)

        out = out1 * out2
        out = x + out
        return out

该网络为了防止梯度下降,还在不同的模块之间使用了跳跃连接。为了保留细致的特征,该子网没有使用下采样和上采样操作。这些获得的细节特征可以看作是对迁移学习子网特性的补充。由于数据拟合子网络是从零开始训练的,并且是基于全分辨率目的构建的,因此它将适合数据并提取更多指定的特征且有着优秀的拟合能力。但同时,更容易遇到过拟合问题。因此,为了改善该数据拟合子网的过拟合问题,建立迁移学习分支的作用是不可忽视的。
##融合尾
该网络的融合尾使用集成的方法产生最终的输出。具体来说,融合尾从两个分支获取特征的拼接,然后学习映射这些特征来恢复图像。融合尾由一个卷积层和一个双曲切线激活函数(Tanh)组成。该模块之所以只采用单一的卷积运算,是因为这两个分支已经为恢复清晰的图像提供了充分而鲜明的特征。相比之下,过多的融合尾会影响方法的整体泛化能力,导致性能下降。整个双分支网络的整体代码如下。

本次复现的实验设置


使用Pytorch1.12和一台24GB RTX 3090 GPU来实现所有的实验。在所有的实验中,采用平滑L1损失和MS-SSIM损失作为模型的损失函数。选择ADAM优化器作为优化算法,并设置学习率为0.0001,批次大小为1。在训练过程中,降低学习率,每100个epochs降低25%。在训练过程中为了测试模型的普适性,对不同的数据集选取不同的图像大小。

训练本次复现代码所用数据集


O-Haze和I-Haze数据集是由专业雾霾机生成的真实雾霾分别在户外和室内拍摄的图像,。NH-Haze数据集是CVPR-NTRIRE2020竞赛中去雾赛道使用的数据集,具体的组成将在表1详细介绍。为了验证我们网络的鲁棒性,我们选取O-Haze的前40对有雾/无雾图像对、I-Haze的前30对有雾/无雾图像对、NH-Haze的前50对有雾/无雾图像对分别作为训练数据集。剩余有雾/无雾图像对分别作为测试数据集以验证结果。

数据集图片数量真实\合成室内\室外
O-Haze45真实室外
I-Haze35真实室内
NH-Haze55真实室外

测试本次复现代码所用的评价指标
为了评价所提出的模型及方法,本文使用常用的峰值信噪比(PSNR)和结构相似度指数(SSIM)来评价模型的性能。其中,PSNR或SSIM值越高,代表恢复的效果越好。均使用均值的形式处理测试集实验结果。

结果展示


在O-Haze数据集上的结果


在这里插入图片描述
由图中的PSNR和SSIM值所示,本文方法在O-Haze数据集上表现稳定,在训练200次的时候便接近收敛,收敛速度较快;在训练300次时取得最好的模型,PSNR达到19.38,SSIM达到0.67。在剩余的1700次训练中,PSNR基本稳定在19.25左右,SSIM基本稳定在0.66左右。

有雾图恢复的结果图原始无雾图
在这里插入图片描述在这里插入图片描述在这里插入图片描述

本文方法在300次训练出的模型在O-Haze[测试集上的测试结果如图3所示,第一列是原始有雾图像,第二列是本文方法的去雾结果,第三列是真实无雾图像。可以发现,本文方法得到的恢复图像对比原始有雾图像几乎没有雾霾残留,去雾效果明显。但对比真实无雾图像,可以发现,本文方法得到的恢复图像存在细节模糊,色调昏暗的缺点,饱和度较低。
综上,本文方法在O-Haze数据集上虽然能够快速收敛并表现稳定,但由于边缘模糊,色彩饱和度较低使得恢复的图像缺失愉悦的视觉感受。

在I-Haze数据集上的结果


同样,在I-Haze数据集中,选择了前30对图像用以2000次的网络训练,每100次生成一个模型。生成的20个模型在I-Haze的剩余5对图像上的测试结果如图所示。由图可以发现,在I-Haze数据集上,其收敛速度快于O-Haze数据集,仅训练了100次便趋向拟合,仅训练200次便得到最优模型,PSNR达18.71,SSIM达0.71。在之后的1800次训练中,其PSNR稳定在18.60左右,SSIM稳定在0.71左右。
在这里插入图片描述
下图展示了本文方法训练得到的最优模型在I-Haze测试集上的结果,其中,第一列是原始有雾图像,第二列是本文方法的去雾结果,第三列是真实无雾图像。将本文方法的去雾结果对比原始有雾图像可以发现,本文方法能够有效的去除室内的均匀雾霾,但对白色区域的恢复效果不理想。对比真实无雾图像可以发现,本文方法恢复的图像与原图还有较大差距,有着与在O-Haze数据集上的模型相同的缺点。对于均匀雾霾室内场景下物体边缘及整体色彩的恢复表现较差。

有雾图恢复的结果图原始无雾图
在这里插入图片描述在这里插入图片描述在这里插入图片描述

在NH-Haze数据集上的结果


为了验证本文方法在非均匀雾霾情况下的效果,选择了NH-Haze数据集。在NH-Haze数据集中,我们使用前40对图像训练网络2000次,每100次生成一个模型。生成的20个模型在NH-Haze的剩余10对图像上的测试结果如图6所示。由图6可以发现,在NH-Haze数据集上,其收敛速度明显慢于O-Haze和I-Haze数据集,训练1600次左右才逐渐趋向拟合,且一直处于稳步上升状态。在1900次的时候PSNR达到了24.94,SSIM达到了0.75。

在这里插入图片描述

虽然其在NH-Haze数据集上的收敛速度慢于O-Haze和I-Haze,但如图,使用其最优模型恢复的室外非均匀雾霾场景下的图像具有令人愉悦的视觉感受。在整体的色调和雾霾去除方面获得很好的表现。但由于浓雾地区雾霾的过度去除使得其部分地区颜色失真,出现黑色色块。图中的(e)也反映了本文方法去雾的另一个缺陷,其对于浓雾地区的场景恢复忽略了细节和纹理的处理,导致图中的白色花坛纹理缺失,边缘模糊。

有雾图恢复的结果图原始无雾图
在这里插入图片描述在这里插入图片描述在这里插入图片描述

编程未来,从这里启航!解锁无限创意,让每一行代码都成为你通往成功的阶梯,帮助更多人欣赏与学习!

更多内容详见:这里


http://www.kler.cn/a/418793.html

相关文章:

  • 贝叶斯统计:高斯分布均值μ的后验分布推导
  • Nextjs 前端设置正向代理 解决 跨域问题
  • 基于Matlab实现三维点坐标生成点云(源码+数据)
  • MySQL 复合查询
  • GitLab的使用
  • MySQL底层概述—7.优化原则及慢查询
  • 【软考速通笔记】系统架构设计师⑧——系统质量属性与架构评估
  • 14 - Java 面向对象(中级)
  • SqlServer REVERSE字符串值的逆序排序函数
  • 框架学习07 - SpringMVC 其他功能实现
  • Cisco WebEx 数据平台:统一 Trino、Pinot、Iceberg 及 Kyuubi,探索 Apache Doris 在 Cisco 的改造实践
  • 线性表-链式描述(C++)
  • 【联表查询】.NET开源 ORM 框架 SqlSugar 系列
  • 【C语言】扫雷游戏(一)
  • 火山引擎VeDI在AI+BI领域的演进与实践
  • Web开发基础学习——理解React组件中的根节点
  • 【计网不挂科】计算机网络——<34道经典简述题>特训
  • Vue.js 深入探索:自定义指令与插件开发
  • vscode远程连接ssh
  • React前端进阶面试(七)
  • 将面具贴到人脸上的过程
  • 【Axure高保真原型】视频列表播放器_横向翻页效果
  • PHP和GD库如何给图片添加反色效果
  • 如何在Solana链上开发Dapp?RPC节点的要求
  • 硬菜3道+馒头
  • 婚纱摄影管理系统|Java|SSM|VUE| 前后端分离