Page 320 - 《软件学报》2021年第12期
P. 320

3984                                Journal of Software  软件学报 Vol.32, No.12, December 2021

         均方误差(mean square error,简称 MSE)损失函数和平均绝对误差(mean absolute error,简称 MAE)损失函数:
                                                1
                                        L MSE () =  P  ∑  [ ( ) Y p−  Yp  ( )] 2             (25)
                                                N  p∈P
                                                 1
                                         L MAE () =  P  ∑  | ( ) Y p−  Yp  ( ) |             (26)
                                                 N  p∈P
         其中,p 表示像素点索引,P 则表示整张图像切片,N 表示图像切片中像素总数,而 Y(p), ()Yp 分别表示正常照度图
         像 Y 和网络输出的照度增强图像 Y 在像素点 p 的值.虽然 L              MSE 能够很好地度量两张图像像素之间的差距,但是
         L MAE 能够更准确地反映实际预测误差的大小.在图像增强方面,由于 L                   MAE 不会过度惩罚图像的差距,因此在对比
         度、亮度方面效果要优于 L         MSE .
             虽然直接使用 L    MSE  或 L MAE 度量 Y 与 Y 之间差异的计算很简单方便,但是它并不符合人眼视觉的主观感受,
         因此,有学者提出将基于人眼视觉系统启发的结构相似度(structural similarity,简称 SSIM)评价标准作为损失函
         数.像素级的 SSIM 数学表达式为
                                        2μμ +  C    2σ  +  C
                             SSIM  (, )X Y =  X  Y  1  ⋅  XY  2  =  l ( , )X Y ⋅  cs (, )X Y  (27)
                                        μ  2  μ +  2  C σ +  2  σ +  2  +  C
                                         X   Y   1  X   Y  2
                                                      2
         其中:μ X ,μ Y 分别表示图像 X 与图像 Y 的像素平均值;σ        2  ,σ 则分别对应于图像的方差;σ XY 为两幅图像的协方差;
                                                    X  Y
                          2
                2
         C 1 =(k 1 L) 和 C 2 =(k 2 L) 是两个用于维持函数稳定的常数,能够防止分母出现 0 的情况,其中,L 为像素值的动态范
         围,且 k 1 =0.01,k 2 =0.03.
             由此,基于 SSIM 构建的损失函数可定义为
                                               1
                                        SSIM () =L  p  (1− ∑  SSIM (X  p ,Y p ))             (28)
                                               N  p ∈p
             而根据卷积神经网络的性质,本文将上式改写为
                                          L SSIM  () 1 SSIM=−P  ( , )Y Y                     (29)
             由于 SSIM 对图像质量的度量结合了图像结构失真与人眼感知两个方面,因此,基于 SSIM 的损失函数的引
         入,能够更好地恢复图像的结构与细节.但是由于 SSIM 对均值的偏差不敏感,因此得到的增强图像亮度与颜色
         的变换在视觉效果上偏暗.
             为了能够更好地度量 Y 与 Y 之间的差异,MDARNet 提出了联合损失函数,将 L                  MSE ,L MAE  与 L SSIM  进行加权和
         作为联合损失函数,以达到构建亮度与图像细节都更好的增强效果的目的,则总损失函数表达式为
                                     L total =λ MSE ⋅L MSE +λ MAE ⋅L MAE +λ SSIM ⋅L SSIM     (30)
         其中,λ MSE ,λ MAE 和λ SSIM 表示用于调整 L MSE ,L MAE  与 L SSIM 损失权重的参数.采用不同训练的数据集不同时,可能会
         影响λ MSE ,λ MAE 和λ SSIM 的取值,但是其取值是平衡不同部分损失函数的量级和收敛速度,一般来说,先使用超参调
         整损失到同一量级,而本文的取值为λ MSE =1,λ MAE =2 和λ SSIM =2.

         2.4   伽马校正与Retinex理论构建数据集
             无论是简单的线性降低图像亮度,还是单一的非线性伽马校正调整图像的亮度,都无法很好地模拟真实低
         照度图像的低亮度、低对比度.文献[27]对不同曝光程度的图像进行研究,提出将线性变换与伽马变换同时应用
         于合成亮度、对比度更逼近于真实低照度图像的合成图像,其数学表达式为
                                              I out =β×(α×I in ) γ                           (31)
                                       γ
         其中,α和β用于对图像进行线性变换,I 表示对图像 I 进行伽马变换,且这 3 个参数服从均匀分布:α~U(0.9,1.0),
         β~U(0.5,1.0),γ~U(1.5,5.0).此外,本文分别通过对图像进行高斯模糊、添加噪声和伽马校正的方法来模拟真实低
         照度图像的特性,可表示为
                                         I out =B G (μ B ,σ B )⋅I in +N G (μ N ,σ N )        (32)
         其中,B G (μ B ,σ B )表示用于模糊图像的高斯滤波器,N G (μ N ,σ N )表示向图像中添加噪声的高斯函数.上述两个高斯函
         数的参数取值为:μ B =0,σ B ~(0.8,1.6),μ N =0,σ N ~(0,20).
   315   316   317   318   319   320   321   322   323   324   325