Processing math: 3%
Image super-resolution reconstruction based on multi-scale feature loss function
  • Abstract

    In the image super-resolution reconstruction, many methods based on deep learning mostly adopt the traditional mean squared error (MSE) as the loss function, and the reconstructed image is prone to the problem of fuzzy details and too smooth. In order to solve this problem, this paper improves the traditional mean square error loss function and proposes an image super-resolution reconstruction method based on multi-scale feature loss function. The whole network model consists of a DenseNet-based reconstruction model and a convolutional neural network which is used to optimize the multi-scale feature loss function. Taking the reconstructed image and the corresponding original HD image as the input of the convolved neural network in series, the mean square error of the different scale feature images obtained by convolution of the reconstructed image with the corresponding original HD image was calculated. Experimental results show that the method in this paper is improved in subjective vision, PSRN and SSIM.

    Keywords

  • 近几年来随着深度学习理论的大火大热,其在图像处理领域取得了许多突出性的成果。和传统的浅层学习只能提取简单的特征进行函数拟合相比,深度学习能通过有效地学习得到层次化的特征表示。2014年,香港中文大学Dong等[]提出了基于卷积神经网络的图像超分辨率方法(learning a deep convolutional network for image SR,SRCNN)。SRCNN由3层卷积神经网络组成,训练过程可以用GPU加速,直接由LR图像预测HR图像。SRCNN的提出很好的证明了利用深度学习直接学习LR-HR之间端到端的映射是可行的,为今后的深度学习实现图像超分辨率重建打下了重要的基础。但是SRCNN仍有不足之处,网络深度不够,训练收敛较慢,特征提取不充分。后续Dong等[]对SRCNN的网络结构进行改进,提出了FSRCNN,使用更小的卷积核和更多的映射层,在最后使用了反卷积层来放大尺寸,不需要先通过双三次插值的方法对输入图像进行放大。由于低分辨率图像携带的低频信息与高分辨率图像携带的低频信息在一定程度上是相近的,2016年,Kim等[]结合残差网络提出了VDSR(accurate image super-resolution using very deep convolutional networks),该方法通过残差连接学习高分辨率图像和低分辨率图像之间的高频部分残差。2017年,Tong等[]以及Yamanaka等[]结合稠密卷积神经网络分别提出了SRDenseNet(image super-resolution using dense skip connections)和DCSCN(fast and accurate image super resolution by deep CNN with skip connection and network in network),通过稠密连接的方式减轻了梯度消失问题,加强了特征的传播,实现特征的复用,进一步提升了重建效果。

    传统的基于CNN的图像超分辨重建方法大多采用均方误差作为损失函数,可获得较好的PSNR,例如SRCNN、FSRCNN、SRDenseNet,但是重建后的图像容易出现边缘模糊和过于平滑的问题。针对这一问题本文对均方误差损失函数进行改进,提出了基于多尺度特征损失的图像超分辨率重建方法。在基于DenseNet的重建模型后,串联一个3层的卷积神经网络用于对重建图像和其对应的原始高清图像进行多尺度的特征提取,然后计算两幅图像从底层特征到高层特征对应层次特征的均方误差。

    图像超分辨率重建技术利用相关网络模型来进行特征的提取,恢复出相关的高频信息,在一幅或一组低分辨率(low resolution,LR)图像中通过增加高频信息,以此来重建出高分辨率(high resolution,HR)的图像,是计算机视觉领域中最经典的问题之一[]。重建后的图像具有较高的像素密度,细节信息更加丰富,在医学影像处理、卫星遥感、视频监控、模式识别等领域有着广泛的应用[-]

    目前,图像超分辨率重建技术主要可以分成三类:基于插值的方法[-]、基于重建的方法[-]以及基于学习的方法[-]。其中,基于插值的方法有最近邻插值[]和双三次插值[]。最近邻插值法规律较为简单,重建效果较差,容易出现方块效应和边缘锯齿效应。双三次插值法相比最近邻插值方法在图像边缘的平滑度上有所提升,不过总体重建效果仍不理想。基于插值的方法虽然简单易于实现,可是细节信息丢失较为严重,造成图像边缘轮廓的复原不理想。基于重建的方法主要分为频域法和空域法两大类[]。频域法可用的先验知识十分有限,一般通过消除频谱混叠的现象从而达到提升图像分辨率的效果。空域法主要有凸集投影法(projection onto convex set,POCS)、迭代反投影法(iterative back projection,IBP)、最大后验概率估计法(maximum a posterior,MAP)、混合MAP/POCS法等。基于重建的方法十分依赖高分辨率图像的先验知识,若图像较为复杂,则重建的效果会受到严重影响。基于学习的图像超分辨率重建技术通过提取丰富的高分辨率图像和低分辨率图像的特征来学习LR与HR图像块之间的映射关系。其中较传统的方法有基于邻居嵌入的方法[]和稀疏表示的方法[-]。基于邻居嵌入的单幅图像超分辨率重建方法(single image super-resolution,SISR)利用LR图像块和HR图像块之间的几何相似度来学习它们之间的回归或映射关系。在稀疏表示的方法中,将LR图像块和HR图像块利用稀疏编码理论建立字典之间的映射关系,通过学习映射关系重建HR图像。

    在图像的超分辨率重建问题中,LR图像RLR是由HR图像RHR经过降质变换所产生的,其目的是通过对LR图像的学习与分析恢复出对应的HR图像,其观测模型可以表示成:

    RLR=DBMRHR+N,

    其中:D为降采样算子,B为光学模糊算子,M为运动模糊算子,N为加性噪声。

    目前,基于深度学习的图像超分辨率重建方法取得了较好的成果。其中,SRCNN是一种经典的基于深度学习的单幅图像超分辨率重建方法,该网络模型结构简单,如图 1所示,由三层卷积神经网络组成,分别为图像特征提取模块、非线性映射模块和重建模块,其尺寸依次为9×9×64,1×1×32和5×5×1。SRCNN在训练时采用91张自然图像作为训练的数据集,并进行双三次差值的预处理。SRCNN第一部分的特征提取层利用9×9卷积核对输入图像进行特征提取,表示成64幅不同的特征图。第二部分的非线性映射层通过组合特征进一步将其映射成32幅特征图。第三层对第二层的特征图进行组合表示,从而得到HR图像。SRCNN的重建效果相对于一些基于浅层学习的图像超分辨率重建方法有较大的改善,但是SRCNN仍然有几个方面可以改进:首先SRCNN采用的卷积核较大,会导致计算复杂度增加且特征提取过程中细节容易丢失。其次,适当地加深网络有利于组建更丰富的特征。利用双三次插值进行上采样,该方法其本身具有一定的不确定性,运行起来速度较慢,导致图像细节的丢失,不利于提取特征。

    Figure 1. Structure of SRCNN[13]
    Full-Size Img PowerPoint

    Structure of SRCNN[]

    FSRCNN对SRCNN进行了改进,结构如图 2所示。FSRCNN不再对输入图像进行双三次插值的处理,而是直接将LR图像作为输入,最后通过反卷积层进行放大,并且使用了更小的卷积核和更多的非线性映射层来加深网络深度。FSRCNN的整个模型可分为五个部分。第一部分为特征提取层,采用5×5的卷积核实现。第二部分为降采样层,利用1×1卷积核进行降维,从而减少网络参数,降低计算复杂度。第三部分为非线性映射层,相比于SRCNN采用5×5的卷积核,FSRCNN采用多个3×3卷积核串联的方式来减少计算量。第四部分为扩张层,利用1×1卷积核进行升维操作。第五部分为反卷积层,实现对图像的放大。FSRCNN增加了非线性映射层的数量,但是重建图像依然仅来源于非线性映射模块的单一映射,特征的利用率较低。

    Figure 2. Structure of FSRCNN[20]
    Full-Size Img PowerPoint

    Structure of FSRCNN[]

    Tong等[]将稠密连接结构应用到了图像超分辨率重建问题中,提出了SRDenseNet,原文中设计了三种结构并做了比较,如图 3所示。图 3(a)模型将最顶层稠密块的输出作为反卷积层的输入。图 3(b)模型将底层卷积神经网络提取的特征和最顶层稠密块的输出作为反卷积层的输入。图 3(c)模型将最底层卷积神经网络提取的特征和每一个稠密块的输出作为后续每一个稠密块的输入。由于把所有稠密块的输出都进行了串联,增加了计算量,因此在反卷积层前添加了一个卷积核为1×1的瓶颈层来进行降维。

    Figure 3. Structure of SRDenseNet[22]
    Full-Size Img PowerPoint

    Structure of SRDenseNet[]

    近几年来随着卷积神经网络快速发展,各种优秀的模型层出不穷,比如GoogleNet、VGGNet、ResNet等。但是随着卷积神经网络的加深,训练过程中的前向传播信号和梯度信号在经过很多层之后可能会逐渐消失,该问题在Highway Network和ResNet中得到了较好的解决。稠密连接的卷积神经网络(densely connected convolutional networks,DenseNet)同样可以解决上述问题,并且实现了特征的复用,极大程度上提高了特征的利用率。

    LMSE(F(x),F(x))=1Li=1LFi(x)Fi(x)2,

    在图像超分辨率重建问题中采用传统的均方误差作为损失函数能获得较好的PSNR,在SRCNN、FSRCNN、SRDenseNet以及一些其它的网络模型中得到了广泛的应用。但是重建后的图像容易出现边缘模糊或者过于平滑的问题,本文提出的多尺度特征损失函数在一定程度上能改善这一问题。通过对SRCNN、FSRCNN以及SRDenseNet等方法的分析,以DenseNet模型为基本框架搭建重建模型,并在重建模型后串联了一个3层的卷积神经网络用以计算多尺度特征损失函数,模型结构如图 4所示。重建模型由稠密连接块、降维层、反卷积层以及重建层四个部分组成。每个稠密连接块由4个卷积层组成,均采用3×3的卷积核,输出的特征图数量均为256。由于将所有稠密连接块的输出都进行了串联,为减少计算负担,在降维层通过1×1卷积核将特征图减少到256。在SRCNN中,将输入图像进行双三次插值的预处理,导致图像的细节丢失,不利于特征的提取,本文模型直接使用原始图像作为输入,然后利用反卷积层进行上采样,恢复出特定尺寸大小的图像。在反卷积层之后通过3×3卷积核重建出单通道高清图像。最后对重建后的图像和对应的原始高清图像通过串联的3层卷积神经网络进行特征提取,计算重建图像卷积得到的特征图与原始高清图像卷积得到的特征图之间的均方误差,多尺度特征损失函数的计算过程可定义为

    Figure 4. Image super-resolution reconstruction model based on multi-scale feature loss function
    Full-Size Img PowerPoint

    Image super-resolution reconstruction model based on multi-scale feature loss function

    其中:x为重建后的图像,x'为对应的原始高清图像,{F^i}(x)为重建图像经过第i层卷积层后提取的特征,同理{F^i}(x')为对应的原始高清图像经过第i层卷积层后提取的特征,L为串联的卷积神经网络的卷积层数量,本文中L=3。

    为了达到更好的重建质量,本文的网络模型并没有池化层。池化层经常被用于图像分类的神经网络中,对卷积后的结果进行下采样,以此来减少参数,从而得到旋转、伸缩、平移等不变性质。在超分辨率重建技术中希望能够增加图像的细节信息,使其具有更加丰富的高频信息,池化层则会使得卷积后的细节信息丢失,不利于重建。

    fPReLu(xi)={xi,xi>0aixi,xi0

    ReLu将0作为阈值,相比于Sigmoid和tanh激活函数,ReLu激活函数在梯度下降上有更快的收敛速度,并且在一定程度上能抑制梯度消失现象。但是不足之处在于ReLu强行将负数置零的性质可能会导致相关特征丢失。

    针对上述问题,本文采用PReLu(parametric rectified linear unit,用{f_{{\rm{PReLu}}}}表示)作为激活函数,PReLu激活函数由He等[]提出,在ReLu上进行了改进,是一种带参数的修正线性单元:

    从式(3)和式(4)可以发现,PReLu比ReLu多了一个参数ai。一般ai是一个非常小的固定值(比如ai=0.01),如果ai=0,那么PReLu就是ReLu。采用PReLu作为激活函数不但可以保留ReLu加速收敛的优势,同时也能防止特征的丢失。

    fReLu(x)={x,x>00,x0

    SRCNN采用修正线性单元ReLu(rectified linear unit,ReLu)来作为激活函数(用{f_{{\rm{ReLu}}}}表示):

    其中:n为每像素的比特数,一般的灰度图像取8,即像素灰阶数为256,MSE为当前图像X和参考图像Y的均方误差(用{e_{{\rm{MSE}}}}表示):

    eMSE=1H×Wi=1Hj=1W(X(i,j)Y(i,j))2
    RPSNR=10lg((2n1)2eMSE),
    c(X,Y)=2σXσY+C2σX2+σY2+C2,
    l(X,Y)=2μXμY+C1μX2+μY2+C1,

    其中:C1C2C3设置为常数,目的是为了避免分母为0的情况,一般取{C_1} = {({K_1} \times L)^2}{C_2} = {({K_2} \times L)^2}{C_3} = {C_2}/2,通常设置常数K1=0.01,K2=0.03,L=255。{\mu _X}{\mu _Y}分别表示图像XY的均值:

    σY2=1H×W1i=1Hj=1W(Y(i,j)μY)2
    SSSIM(X,Y)=l(X,Y)×c(X,Y)×s(X,Y)

    {\sigma _{XY}}则表示图像XY的协方差:

    σX2=1H×W1i=1Hj=1W(X(i,j)μX)2,

    根据式(7)至式(9)可以写出SSIM的公式:

    μY=1H×Wi=1Hj=1WY(i,j)

    本文利用峰值信噪比(peak signal to noise ratio,PSNR,用{R_{{\rm{PSNR}}}}表示)和结构相似性(structural similarity,SSIM,用{S_{{\rm{SSIM}}}}表示)这两个客观评价指标来对重建图像进行质量评价。PSNR用于对处理后的结果和原图相比的误差进行计算,PSNR值越大,说明失真越小,单位为dB,其计算式:

    μX=1H×Wi=1Hj=1WX(i,j),

    {\sigma _X}{\sigma _Y}分别表示图像XY的方差:

    σXY=1H×W1i=1Hj=1W((X(i,j)μX)(Y(i,j)μY))

    结构相似性的取值范围在[0, 1],其值越大,表示图像失真越小。它分别从亮度、对比度、结构三方面度量图像结构相似性:

    s(X,Y)=σXY+C3σXσY+C3,

    本文实现步骤主要分为五个部分:1)训练所需的外部图像库的建立;2)搭建网络模型;3)利用建立的外部图像库进行训练,不断优化网络参数,得到输入图像的特征表达和先验信息;4)将LR图像重建得到HR图像;5)将重建图像以及对应的原始高清图像输入串联的卷积神经网络进行不同尺度特征的提取,计算重建图像卷积得到的特征与原始高清图像卷积得到的特征的均方误差。

    本文实验采用操作系统为Windows10(64位),64 GB运行内存,NVIDIA GeForce 1080Ti GPU。使用的深度学习框架为Tensorflow,使用的编程语言为Python3.5。设置dropout=0.5,选择优化器为Adam,采用初始的学习率为0.0002。

    训练数据集方面,本文实验采用著名的Yang用过的91张和Dong用过的200张Berkeley Segmentation Dataset作为网络模型的训练样本,合计291张图像。考虑到卷积神经网络的训练依赖于大量的数据样本,为了保证样本的充足,需要对原291张训练样本进行适当的扩充。首先对原样本集进行左右和上下翻转,得到比原先多4倍的训练样本集,即291+(291×4)=1455张训练样本。然后再对原样本进行尺寸变化,分别放大2倍、3倍、4倍,并且对放大后的图像进行180°镜像变换,即291×2×3=1746,总共合计1455+1746=3201张训练样本。测试集选用超分辨率研究领域标准测评数据集Set5、Set14、BSD100,一共119张测试样本,并利用PSNR和SSIM进行客观指标的评价,有效地展示算法的实验效果。

    Figure 9. The loss function curves of our method in training set and test set
    Full-Size Img PowerPoint

    The loss function curves of our method in training set and test set

    Figure 7. Reconstruction results of each algorithm for zebra amplification by 3 times. (a) Original; (b) Bicubic; (c) SRCNN; (d) DnCNN-3; (e) Our method
    Full-Size Img PowerPoint

    Reconstruction results of each algorithm for zebra amplification by 3 times. (a) Original; (b) Bicubic; (c) SRCNN; (d) DnCNN-3; (e) Our method

    Figure 5. The reconstructed results based on the DenseNet reconstruction model and the traditional mean square error as the loss function are compared with the method in this paper
    Full-Size Img PowerPoint

    The reconstructed results based on the DenseNet reconstruction model and the traditional mean square error as the loss function are compared with the method in this paper

    利用扩充后的数据集Yang91和BSD200训练本文网络模型,表 1列出了基于插值的Bicubic方法,经典的深度学习算法SRCNN,结合残差学习的DnCNN-3算法[],使用本文基于DenseNet重建模型(不包括串联的卷积神经网络)的算法以及基于多尺度特征损失函数的方法,分别在测试集Set5、Set14、BSD100上的平均PSNR和SSIM数值。

    Dataset Scale Bicubic SRCNN DnCNN-3 Based on DenseNet Our method
    Set5 33.66/0.9299 36.66/0.9542 37.58/0.9590 37.79/0.9589 37.98/0.9632
    30.39/0.8682 32.75/0.9090 33.75/0.9222 33.99/0.9256 34.36/0.9264
    28.42/0.8104 30.48/0.8628 31.40/0.8845 30.93/0.8754 31.32/0.8819
    Set14 30.24/0.8688 32.42/0.9063 33.03/0.9128 33.48/0.9145 33.69/0.9175
    27.55/0.7742 29.28/0.8209 29.81/0.8321 29.60/0.8281 29.69/0.8296
    26.00/0.7072 27.49/0.7503 28.04/0.7672 28.29/0.7689 28.56/0.7714
    BSD100 29.56/0.8431 31.36/0.8879 31.90/0.8961 32.19/0.8988 32.73/0.9023
    27.21/0.7385 28.41/0.7863 28.85/0.7981 29.18/0.8001 29.43/0.8103
    25.96/0.6675 26.90/0.7101 27.29/0.7253 27.03/0.7203 27.24/0.7232
    CSV Show Table

    图 9给出了本文方法在训练集和测试集上的损失函数变化曲线。从图中可知,训练集的损失函数变化曲线存在一定程度的震荡,但是随着训练的进行,损失曲线逐渐趋于收敛,模型得到优化,震荡现象也得到改善,而测试集中损失函数曲线已十分平滑。并且测试集的损失函数曲线略微小于训练集的损失函数曲线,说明模型能够较好地预防过拟合问题,即不存在模型在训练集上表现过于优越而在测试集上表现不佳的问题。

    本文提出的模型主要由基于DenseNet的重建模型以及用来优化多尺度特征损失函数的卷积神经网络两个部分组成。图 5展示了使用本文提出的基于DenseNet重建模型(不包括串联的卷积神经网络)和传统的均方误差作为损失函数重建得到的效果图与使用多尺度特征损失函数得到的效果图对比。通过观察图 5可知,采用本文提出的多尺度特征损失函在一定程度上能够改善重建图像的模糊问题,提升图像在细节方面的重建效果。图 6图 8分别展示了本文方法和Bicubic、SRCNN、DnCNN-3以及原始高清图像的对比。

    Figure 6. Reconstruction results of each algorithm for butterfly amplification by 2 times. (a) Original; (b) Bicubic; (c) SRCNN; (d) DnCNN-3; (e) Our method
    Full-Size Img PowerPoint

    Reconstruction results of each algorithm for butterfly amplification by 2 times. (a) Original; (b) Bicubic; (c) SRCNN; (d) DnCNN-3; (e) Our method

    Figure 8. Reconstruction results of each algorithm for PPT amplification by 4 times. (a) Original; (b) Bicubic; (c) SRCNN; (d) DnCNN-3; (e) Our method
    Full-Size Img PowerPoint

    Reconstruction results of each algorithm for PPT amplification by 4 times. (a) Original; (b) Bicubic; (c) SRCNN; (d) DnCNN-3; (e) Our method

    本文在基于DenseNet的图像超分辨率重建方法的基础上加以扩展,对传统的均方误差损失函数进行改性,在重建模型后额外串联一个卷积神经网络用来计算重建图像与对应的原始高清图像在卷积后得到不同尺度特征图的均方误差,以此来优化整个网络从底层特征到高层特征的学习。最后通过实验证明了本文的方法在主观视觉效果和客观图像质量评价指标上均有所改善和提高。由于本文采用上采样的方式来放大图像尺寸,在放大倍数较大时,本文的方法略显不足,在今后的研究中需要解决。

  • References

    Glasner D, Bagon S, Irani M. Super-resolution from a single image[C]//Proceedings of the IEEE 12th International Conference on Computer Vision, Kyoto, Japan, 2009: 349-356.

    Google Scholar

    Peled S, Yeshurun Y. Superresolution in MRI: application to human white matter fiber tract visualization by diffusion tensor imaging[J]. Magnetic Resonance in Medicine, 2001, 45(1): 29-35.

    DOI: 10.1002/1522-2594(200101)45:1<29::AID-MRM1005>3.0.CO;2-Z

    CrossRef Google Scholar

    Shi W Z, Caballero J, Ledig C, et al. Cardiac image super-resolution with global correspondence using multi-atlas patchmatch[C]//Proceedings of the 16th International Conference on Medical Image Computing and Computer-Assisted Intervention, Nagoya, Japan, 2013: 9-16.

    Google Scholar

    Gunturk B K, Batur A U, Altunbasak Y, et al. Eigenface-domain super-resolution for face recognition[J]. IEEE Transactions on Image Processing, 2003, 12(5): 597-606.

    DOI: 10.1109/TIP.2003.811513

    CrossRef Google Scholar

    Zhang L P, Zhang H Y, Shen H F, et al. A super-resolution reconstruction algorithm for surveillance images[J]. Signal Processing, 2010, 90(3): 848-859.

    DOI: 10.1016/j.sigpro.2009.09.002

    CrossRef Google Scholar

    Zhou F, Yang W M, Liao Q M. Interpolation-based image super-resolution using multisurface fitting[J]. IEEE Transactions on Image Processing, 2012, 21(7): 3312-3318.

    DOI: 10.1109/TIP.2012.2189576

    CrossRef Google Scholar

    View full references list
  • Cited by

    Periodical cited type(10)

    1. 彭青梅. 基于多尺度学习、特征映射网络的图像超分辨率重建研究. 长江信息通信. 2024(04): 89-91 .
    2. 王奇,宋思思,刘毅娟. 大数据驱动的红外移动目标检测. 激光杂志. 2023(03): 95-99 .
    3. 汪荣贵,雷辉,杨娟,薛丽霞. 基于自相似特征增强网络结构的图像超分辨率重建. 光电工程. 2022(05): 38-53 . 本站查看
    4. 刘庆. 基于多任务神经网络的智能网联汽车环境自动感知研究. 山东交通学院学报. 2022(04): 1-7+17 .
    5. 潘绍明. 基于多融合多尺度特征的高光谱图像分类研究. 激光杂志. 2021(02): 110-114 .
    6. 何法虎,梁健涛. 基于神经网络的空气质量预测研究. 现代计算机. 2021(18): 64-67 .
    7. 孙海蓉,潘子杰,晏勇. 基于深度卷积自编码网络的小样本光伏热斑识别与定位. 华北电力大学学报(自然科学版). 2021(04): 91-98 .
    8. 王芷薇,郭斌,胡晓峰,罗哉,段林茂. 基于FCOS神经网络的制动主缸内槽缺陷检测方法. 计量学报. 2021(09): 1225-1231 .
    9. 李岚,张云,杜佳,马少斌. 基于改进残差亚像素卷积神经网络的超分辨率图像重建方法研究. 长春师范大学学报. 2020(08): 23-29 .
    10. 赵圆圆,施圣贤. 融合多尺度特征的光场图像超分辨率方法. 光电工程. 2020(12): 56-66 . 本站查看

    Other cited types(13)

  • Author Information

  • Copyright

    The copyright belongs to the Institute of Optics and Electronics, Chinese Academy of Sciences, but the article content can be freely downloaded from this website and used for free in academic and research work.
  • About this Article

    DOI: 10.12086/oee.2019.180419
    Cite this Article
    Xu Liang, Fu Randi, Jin Wei, Tang Biao, Wang Shangli. Image super-resolution reconstruction based on multi-scale feature loss function. Opto-Electronic Engineering 46, 180419 (2019). DOI: 10.12086/oee.2019.180419
    Download Citation
    Article History
    • Received Date August 03, 2018
    • Revised Date January 03, 2019
    • Published Date October 31, 2019
    Article Metrics
    Article Views(12718) PDF Downloads(3227)
    Share:
  • Related Articles

  • Dataset Scale Bicubic SRCNN DnCNN-3 Based on DenseNet Our method
    Set5 33.66/0.9299 36.66/0.9542 37.58/0.9590 37.79/0.9589 37.98/0.9632
    30.39/0.8682 32.75/0.9090 33.75/0.9222 33.99/0.9256 34.36/0.9264
    28.42/0.8104 30.48/0.8628 31.40/0.8845 30.93/0.8754 31.32/0.8819
    Set14 30.24/0.8688 32.42/0.9063 33.03/0.9128 33.48/0.9145 33.69/0.9175
    27.55/0.7742 29.28/0.8209 29.81/0.8321 29.60/0.8281 29.69/0.8296
    26.00/0.7072 27.49/0.7503 28.04/0.7672 28.29/0.7689 28.56/0.7714
    BSD100 29.56/0.8431 31.36/0.8879 31.90/0.8961 32.19/0.8988 32.73/0.9023
    27.21/0.7385 28.41/0.7863 28.85/0.7981 29.18/0.8001 29.43/0.8103
    25.96/0.6675 26.90/0.7101 27.29/0.7253 27.03/0.7203 27.24/0.7232
    View in article Downloads

Glasner D, Bagon S, Irani M. Super-resolution from a single image[C]//Proceedings of the IEEE 12th International Conference on Computer Vision, Kyoto, Japan, 2009: 349-356.

Google Scholar

Peled S, Yeshurun Y. Superresolution in MRI: application to human white matter fiber tract visualization by diffusion tensor imaging[J]. Magnetic Resonance in Medicine, 2001, 45(1): 29-35.

DOI: 10.1002/1522-2594(200101)45:1<29::AID-MRM1005>3.0.CO;2-Z

CrossRef Google Scholar

Shi W Z, Caballero J, Ledig C, et al. Cardiac image super-resolution with global correspondence using multi-atlas patchmatch[C]//Proceedings of the 16th International Conference on Medical Image Computing and Computer-Assisted Intervention, Nagoya, Japan, 2013: 9-16.

Google Scholar

Gunturk B K, Batur A U, Altunbasak Y, et al. Eigenface-domain super-resolution for face recognition[J]. IEEE Transactions on Image Processing, 2003, 12(5): 597-606.

DOI: 10.1109/TIP.2003.811513

CrossRef Google Scholar

Zhang L P, Zhang H Y, Shen H F, et al. A super-resolution reconstruction algorithm for surveillance images[J]. Signal Processing, 2010, 90(3): 848-859.

DOI: 10.1016/j.sigpro.2009.09.002

CrossRef Google Scholar

Zhou F, Yang W M, Liao Q M. Interpolation-based image super-resolution using multisurface fitting[J]. IEEE Transactions on Image Processing, 2012, 21(7): 3312-3318.

DOI: 10.1109/TIP.2012.2189576

CrossRef Google Scholar

Zhang L, Wu X L. An edge-guided image interpolation algorithm via directional filtering and data fusion[J]. IEEE Transactions on Image Processing, 2006, 15(8): 2226-2238.

DOI: 10.1109/TIP.2006.877407

CrossRef Google Scholar

Lin Z C, Shum H Y. Fundamental limits of reconstruction-based superresolution algorithms under local translation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(1): 83-97.

DOI: 10.1109/TPAMI.2004.1261081

CrossRef Google Scholar

Rasti P, Demirel H, Anbarjafari G. Image resolution enhancement by using interpolation followed by iterative back projection[C]//Proceedings of the 21st Signal Processing and Communications Applications Conference, Haspolat, Turkey, 2013: 1-4.

Google Scholar

周靖鸿, 周璀, 朱建军, 等.基于非下采样轮廓波变换遥感影像超分辨重建方法[J].光学学报, 2015, 35(1): 0110001.

DOI: 10.3788/AOS201535.0110001

Zhou J H, Zhou C, Zhu J J, et al. A method of super-resolution reconstruction for remote sensing image based on non-subsampled contourlet transform[J]. Acta Optica Sinica, 2015, 35(1): 0110001.

DOI: 10.3788/AOS201535.0110001

CrossRef Google Scholar

Yang J C, Wright J, Huang T S, et al. Image super-resolution via sparse representation[J]. IEEE Transactions on Image Processing, 2010, 19(11): 2861-2873.

DOI: 10.1109/TIP.2010.2050625

CrossRef Google Scholar

Timofte R, De V, van Gool L. Anchored neighborhood regression for fast example-based super-resolution[C]//Proceedings of 2013 IEEE International Conference on Computer Vision, Sydney, NSW, Australia, 2013: 1920-1927.

Google Scholar

Dong C, Loy C C, He K M, et al. Image super-resolution using deep convolutional networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(2): 295-307.

DOI: 10.1109/TPAMI.2015.2439281

CrossRef Google Scholar

苏衡, 周杰, 张志浩.超分辨率图像重建方法综述[J].自动化学报, 2013, 39(8): 1202-1213.

DOI: 10.3724/SP.J.1004.2013.01202

Su H, Zhou J, Zhang Z H. Survey of super-resolution image reconstruction methods[J]. Acta Automatica Sinica, 2013, 39(8): 1202-1213.

DOI: 10.3724/SP.J.1004.2013.01202

CrossRef Google Scholar

Keys R. Cubic convolution interpolation for digital image processing[J]. IEEE Transactions on Acoustics Speech & Signal Processing, 1981, 29(6): 1153-1160.

DOI: 10.1109/TASSP.1981.1163711

CrossRef Google Scholar

袁琪, 荆树旭.改进的序列图像超分辨率重建方法[J].计算机应用, 2009, 29(12): 3310-3313.

http://d.old.wanfangdata.com.cn/Periodical/jsjyy200912042

Yuan Q, Jing S X. Improved super resolution reconstruction method for video sequence[J]. Journal of Computer Applications, 2009, 29(12): 3310-3313.

http://d.old.wanfangdata.com.cn/Periodical/jsjyy200912042

Google Scholar

Chang H, Yeung D Y, Xiong Y. Super-resolution through neighbor embedding[C]//Proceedings of the 2004 Computer Vision and Pattern Recognition.Piscataway, NJ: IEEE, 2004, 1: I-I.

Google Scholar

Yang J C, Wright J, Huang T S, et al. Image super-resolution via sparse representation[J]. IEEE Transactions on Image Processing, 2010, 19(11): 2861-2873.

DOI: 10.1109/TIP.2010.2050625

CrossRef Google Scholar

Yang J, Wright J, Huang T, et al. Image super-resolution as sparse representation of raw image patches[C]//Proceedings of the 2008 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2008: 1-8.

Google Scholar

Dong C, Loy C C, Tang X O. Accelerating the super-resolution convolutional neural network[C]//Proceedings of the 14th European Conference on Computer Vision, Amsterdam, The Netherlands, 2016.

Google Scholar

Kim J W, Lee J K, Lee K M. Accurate image super-resolution using very deep convolutional networks[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, NV, USA, 2016: 1646-1654.

Google Scholar

Tong T, Li G, Liu X J, et al. Image super-resolution using dense skip connections[C]//Proceedings of 2017 IEEE International Conference on Computer Vision, Venice, Italy, 2017.

Google Scholar

Yamanaka J, Kuwashima S, Kurita T. Fast and accurate image super resolution by deep CNN with skip connection and network in network[C]//Proceedings of the 24th International Conference on Neural Information Processing, Guangzhou, China, 2017.

Google Scholar

He K M, Zhang X Y, Ren S Q, et al. Delving deep into rectifiers: Surpassing human-level performance on ImageNet classification[C]//Proceedings of 2015 IEEE International Conference on Computer Vision, Santiago, Chile, 2015: 1026-1034.

Google Scholar

Huang G, Liu Z, van der Maaten L, et al. Densely connected convolutional networks[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, Hawaii, 2017.

Google Scholar

Related Articles
Show full outline

Catalog

    Wang Shangli

    1. On this Site
    2. On Google Scholar
    3. On PubMed
    Image super-resolution reconstruction based on multi-scale feature loss function
    • Figure  1

      Structure of SRCNN[13]

    • Figure  2

      Structure of FSRCNN[20]

    • Figure  3

      Structure of SRDenseNet[22]

    • Figure  4

      Image super-resolution reconstruction model based on multi-scale feature loss function

    • Figure  5

      The reconstructed results based on the DenseNet reconstruction model and the traditional mean square error as the loss function are compared with the method in this paper

    • Figure  6

      Reconstruction results of each algorithm for butterfly amplification by 2 times. (a) Original; (b) Bicubic; (c) SRCNN; (d) DnCNN-3; (e) Our method

    • Figure  7

      Reconstruction results of each algorithm for zebra amplification by 3 times. (a) Original; (b) Bicubic; (c) SRCNN; (d) DnCNN-3; (e) Our method

    • Figure  8

      Reconstruction results of each algorithm for PPT amplification by 4 times. (a) Original; (b) Bicubic; (c) SRCNN; (d) DnCNN-3; (e) Our method

    • Figure  9

      The loss function curves of our method in training set and test set

    • Figure  1
    • Figure  2
    • Figure  3
    • Figure  4
    • Figure  5
    • Figure  6
    • Figure  7
    • Figure  8
    • Figure  9
    Image super-resolution reconstruction based on multi-scale feature loss function
    • Dataset Scale Bicubic SRCNN DnCNN-3 Based on DenseNet Our method
      Set5 33.66/0.9299 36.66/0.9542 37.58/0.9590 37.79/0.9589 37.98/0.9632
      30.39/0.8682 32.75/0.9090 33.75/0.9222 33.99/0.9256 34.36/0.9264
      28.42/0.8104 30.48/0.8628 31.40/0.8845 30.93/0.8754 31.32/0.8819
      Set14 30.24/0.8688 32.42/0.9063 33.03/0.9128 33.48/0.9145 33.69/0.9175
      27.55/0.7742 29.28/0.8209 29.81/0.8321 29.60/0.8281 29.69/0.8296
      26.00/0.7072 27.49/0.7503 28.04/0.7672 28.29/0.7689 28.56/0.7714
      BSD100 29.56/0.8431 31.36/0.8879 31.90/0.8961 32.19/0.8988 32.73/0.9023
      27.21/0.7385 28.41/0.7863 28.85/0.7981 29.18/0.8001 29.43/0.8103
      25.96/0.6675 26.90/0.7101 27.29/0.7253 27.03/0.7203 27.24/0.7232
    • Table  1

      Average PSNR and SSIM of different super-resolution algorithms on datasets Set5, Set14 and BSD100

        1/1