从传统图像到自然图像超分辨率重建综述

/ 2

从传统图像到自然图像超分辨率重建综述

闫新月  梁启文 卢鹏旭 张国玉

西南民族大学  四川省 成都市  610000

姓名:闫新月(1998.03);性别:女,民族:满族 籍贯:吉林省柳河县人,学历:硕士,就读于西南民族大学;研究方向:智能信息处理

摘要:

在人工智能的日益发展中,深度学习等技术在很多领域的应用已经得到了肯定。针对传统超分辨率技术的局限性,基于深度学习的超分辨率重建算法应运而生。本文从传统方法和深度学习方法分别了超分辨率重建,并展望了未来的发展方向。

关键字:超分辨率;深度学习;自然图像;

0 引言

图像超分辨率重建算法是将低分辨率图像通过特定方式恢复到高分辨率图像的过程。随着深度学习的发展,超分辨率技术从传统的插值方法演变成基于深度学习的超分辨率重建算法。这些算法最初应用于自然图像领域。

1 传统超分辨率重建算法

在深度学习出现之前,超分辨率技术主要采用数学中的非线性插值方法进行重建。传统的超分辨率重建算法一般可以归纳为基于插值、重建和学习的方法三种。

基于插值的方法[1]主要是通过每个像素及其周围像素进行数学插值处理,以推测生成高分辨率图像中未知像素的值。常见的插值技术包括最近邻插值法、双线性插值法和双立方插值法。通过插值技术,可以根据已有信息合理地推测出未知像素的值,以较高的效率生成高分辨率的图像,但是重建结果可能会有缺乏细节和真实性的现象。

基于重建的方法[2]主要是利用先验知识,如边缘信息、梯度信息等,来解决图像重建过程中可能出现的边缘模糊问题。通过对图像进行重建,可以利用这些先验知识来引导算法,使其更好地保留和恢复图像的细节和边缘特征。但是该方法对先验知识的依赖性较高,对复杂场景的适应性有限。

基于学习的方法[3]主要是采用各种机器学习技术学习,通过学习低-高分辨率图像之间特有的特征映射关系,以重构高分辨率图像。该方法能够从大量的训练数据中学习到丰富的特征表示,从而实现生成更准确、更真实的重建结果。然而,这种方法不仅容易丢失高频分量,同时对于大规模训练数据的需求较高,需要投入大量的计算资源和时间成本。此外,模型的泛化能力也是一个挑战,可能在未见过的图像场景上表现不佳。

2 自然图像领域超分辨率重建算法

近来,伴随机器学习的不断推进,特别是深度学习在高效提取图像隐藏特征方面的广泛应用,引起了基于深度学习的超分辨率重建算法的广泛关注和积极研究,涌现出了许多采用卷积神经网络为基础的超分辨模型。这些算法成功地解决了传统方法中高频分量丢失的问题。最初,Dong等人[4]提出了一种的单图像超分辨率的方法SRCNN,该方法首次使用深度学习,能够直接端到端的学习低-高分辨率图像之间的映射关系。Shi等人[5]提出了一种超分辨率ESPCN模型。该模型中通过引入亚像素卷积操作,实现低计算复杂度的上采样操作。为了进一步提高超分辨率重建的表现力,出现了非常宽的超分辨率重建网络EDSR[6]以及非常深且包含注意力机制的超分辨率重建网络RCAN[7]。这些新的网络模型通过引入更多的参数和注意力机制,实现出色的图像超分辨率重建效果。

Goodfellow等人[8]引入了一种新的竞争性训练方案来训练深度学习模型,这种新模式被称为生成性对抗网络(GAN)。与CNN不同,GAN具有生成照片真实感图像的独特能力。Ledig等人[9]提出了SRGAN,这是首次尝试将GAN用于SR,通过使用MSRResNet作为生成器,能够生成更符合人眼、更有真实感的图片,达到了很好的效果。此外,ESRGAN[10]在SRGAN的基础上进行了改进,包括去除BN层、引入残差密集(RRDB)块的网络架构,以及对对抗损失和感知损失的改进,从而使得重建后的图片在视觉上进一步提升了性能。

3 结语

本文主要从传统方法、自然图像领域分别介绍了超分辨率重建方法。与传统方法相比,基于深度学习的方法能够更好的重建图像。目前,大多数超分辨率重建算法都是以配对数据为基础进行监督学习的,然而,不仅是图像领域,在很多领域真实的低分辨率图像和高分辨率图像的配对图像难以获取,因此,对于无监督超分辨率重建算法的研究和各个领域的应用还有很大的发展空间。

参考文献

[1] Giachetti A, Asuni N. Real-time artifact-free image upscaling[J]. IEEE Transactions on Image Processing, 2011, 20(10): 2760-2768.

[2] Rasti P, Demirel H, Anbarjafari G. Improved iterative back projection for video super-resolution[C]//2014 22nd Signal Processing and Communications Applications Conference (SIU). IEEE, 2014: 552-555.

[3] Elad M. Sparse and redundant representations: from theory to applications in signal and image processing[M]. Springer Science & Business Media, 2010.

[4] Dong C, Loy C C, He K, et al. Image super-resolution using deep convolutional networks[J]. IEEE transactions on pattern analysis and machine intelligence, 2015, 38(2): 295-307.

[5] Shi W, Caballero J, Huszár F, et al. Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 1874-1883.

[6] Lim B, Son S, Kim H, et al. Enhanced deep residual networks for single image super-resolution[C]//Proceedings of the IEEE conference on computer vision and pattern recognition workshops. 2017: 136-144.

[7] Zhang Y, Li K, Li K, et al. Image super-resolution using very deep residual channel attention networks[C]//Proceedings of the European conference on computer vision (ECCV). 2018: 286-301.

[8] Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets, in ‘Advances in Neural Information Processing Systems 27’, Curran Associates[J]. 2014.

[9] Ledig C, Theis L, Huszár F, et al. Photo-realistic single image super-resolution using a generative adversarial network[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2017: 4681-4690.

[10] Wang X, Yu K, Wu S, et al. Esrgan: Enhanced super-resolution generative adversarial networks[C]//Proceedings of the European conference on computer vision (ECCV) workshops. 2018: 0-0.