收稿日期:2019 10 18;修回日期:2019 12 12  基金项目:国家重点研发计划项目(2016YFC0200400);国家自然科学基金资助项目(61673265)
  作者简介:董星煜(1993 ),男,山西朔州人,硕士研究生,主要研究方向为图像处理、深度学习;刘传奇(1993 ),男,山东聊城人,博士研究生,主要研究方向为图像处理、深度学习;赵健康(1966 ),男(通信作者),湖南益阳人,教授,博导,博士,主要研究方向为导航制导与控制(zhaojian kang@sjtu.edu.cn).
融合运动信息的图像运动模糊去除算法
董星煜,刘传奇,赵健康
(上海交通大学电子信息与电气工程学院,上海201100)
摘 要:现有运动去模糊算法难以有效复原含有大尺度旋转的复合运动模糊,针对此问题提出了一种基于
U net模型的神经网络框架。该框架通过融合运动信息至网络输入,给定每一像素点不同的运动约束。经过网络的编码器与解码器结构,得到每一像素点的预测值,实现端对端的方式直接获得复原图像。实验在通用数据集上与当前先进去模糊算法进行比较,该方法相比性能最好的算法PSNR(peaksignal to noiseratio)值提高了0.14dB,相比实时性最好的算法运行时间减少了0
.1s;同时在含有旋转运动的测试集上进行验证,证明了该算法可获得较好的复原质量。
关键词:运动模糊;图像复原;卷积神经网络;运动约束中图分类号:TP391 41   文献标志码:A   文章编号:1001 3695(2021)01 056 0278 04doi
:10.19734/j.issn.1001 3695.2019.10.0647Imagemotiondebluralgorithmbasedonmotioninformation
DongXingyu,LiuChuanqi,ZhaoJiankang
(SchoolofElectronicInformation&ElectricalEngineering,ShanghaiJiaoTongUniversity,Shanghai201100,China)
Abstract:Theexistingmotiondeblurringalgorithmisdifficulttoeffectivelyrecoverthecompositemotionblurwithlargerota
tionalmotion.ThispaperproposedaneuralnetworkframeworkbasedonU netmodelforthisproblem.Bycomb
iningmotion
informationtotheinputofnetwork
,thisframeworkgavedifferentmotionconstrainttoeachpixel.Throughthestructureofen coderanddecoder,eachpixelobtainedthepredictionvalue,therebytheblurryimagecouldberecoveredinanend to endmanner.Theexperimentwascomparedwiththecurrentstate of artdeblurringalgorithmontheuniversaldataset.Thismethod
improvedthePSNRvalueofthebestalgorithmby0.14dB
,andreducedtherunningtimeofthebestreal timealgorithmby0.1s.Atthesametime,itwasverifiedonthetestdatasetwithrotationalmotion.Thisprovesthatthealgorithmobtainsbetterrestorationquality.
Keywords:motionblur;imagerestoration;convolutionalneuralnetwork;motionconstraint
0 引言
使用快速移动的相机拍摄图像时,运动模糊难以避免,在光线条件较差的环境下,主动增加曝光时间会引起更为严重的图像降质。图像稳定设备在一定程度上可以减少运动模糊,但其适用范围有限,对于高速运动补偿效果较差,因此使用数学方法后期去模糊是常用选择。
从成像原理来讲光学图像是曝光时间内相机传感器累积存储光学能量形成的,如果在曝光时间内相机传感器与拍摄场景之间存在相对运动,固定传感器上将接受一系列不同的光能量,整个图像出现运动拖影。这一过程可以看成一幅清晰图像与模糊核卷积同时添加噪声而成,用数学模型表示为
b(x,y)=f(x,y) k
(x,y)+n(x,y)(1)
其中:f(x,y)表示理想没有相对运动情况下获取的图像,即期望通过建立模型恢复的清晰图像;k(x,y)表示图像退化函数,此处称之为模糊核函数;n(x,y)表示成像过程中产生的噪声;b(x,y)表示观察到的退化图像; 表示卷积运算。
运动去模糊问题根据模糊核是否已知可以分为非盲去模糊和盲去模糊两类。在非盲去运动模糊研究领域,Joshi等人[1]使用加速度计和陀螺仪获取相机运动,再使用贝叶斯最大后验概率,根据模糊图像和模糊核矩阵估计清晰图像,但是
该方法假设图像场景深度未发生变化,对模糊恢复的精度造成
了影响。盲去模糊需要在模糊图像上同时求取模糊核与复原
图像,属于严重病态问题[
2]。Krishnan等人[3]提出基于变分贝叶斯的图像盲去模糊算法,并运用Richardson Lucy算法复原图像,为此类方法奠定了基础,但复原图像振铃效应明显。
Tang等人[4]
提出了一种多正则化约束方法来估计运动核,首先结合空间尺度、l0范数和暗通道先验模型寻锐利的大尺度边缘保证模糊核估计的准确性,其次提出了一种双约束正则化模型,结合l0规范化强度先验和l2规范化梯度先验对模糊核进行估计,很好地保持了模糊核的连续性和稀疏性。
Deshpande等人[5]
提出了在频域中提取运动信息估计模糊核的方法,该方法根据图像频谱中暗纹分布规律,利用radon变换提取运动信息构造模糊核,再利用反卷积的方法恢复清晰图像,该方法对于低信噪比图像的运动估计不理想。近年来深度学习的方法获得了较好的效果,文献[6]先利用卷积神经网络从模糊图像中提取边缘,再利用边缘作为正则项约束估计模糊
核并恢复图像。Sun等人[7]
将模糊核估计问题转换为分类问题,按照运动方向与尺度将运动分为73个标签,再利用图像旋转扩展到全角度,最后建立非均匀反卷积模型对图像进行去模
糊,该模型仅适用于某些特定类型的模糊。Kupyn等人[8]
采用条件对抗网络,以端到端方式直接还原清晰图像,并用多组损
第38卷第1期2021年1月 计算机应用研究
ApplicationResearchofComputersVol.38No.1
Jan.2021
失函数对网络进行优化,在取得较好去模糊效果的同时,将实时性提高了5倍。M
ustaniemi等人[9]
首次结合陀螺仪数据与神经网络的去模糊方法,使用模糊图像和陀螺仪测得模糊场作为输入,以全分辨率清晰图像作为输出训练全卷积神经网络以恢复模糊图像,该方法可以处理大尺度和空间变化的运动模糊,对真实世界的图像实时性和视觉质量方面优于现有技术。
综上,目前常用的恢复模糊图像方法可以分为以下两类:
一种是基于模糊核建立[5,7,10]
,因为对图像中的每个像素点建
立模糊核属于病态问题[8]
,所以基于建立模糊核的方法假设全图拥有单一模糊核,或将图像分块建立局部模糊核来复原图像,该方法在恢复空间可变运动模糊时效果较差并且模糊核的
估计可能带来计算误差;另一种建立端对端的网络模型[8,11]
,通过提取图像的抽象特征直接由模糊图像得到复原图像,该方法对场景依赖性较大。
针对上述问题,本文立足于拍摄时相机运动产生模糊的场景,提出了一种融合运动信息到卷积神经网络的去模糊方法。当带有旋转的复合运动引起图像模糊时,图像中每一像素点运动均不相同,理论上这些像素点均有不同的模糊核。基于神经网络可以逼近任何高维度非线性函数的思想,希望为每一个点建立模糊核,因此本文将模糊运动信息转换为图像格式输入网络,对于每一个像素点给定运动约束。由于复合运动对于每一像素点的运动量均不相同,这相当于利用神经网络为每一个点建立了模糊核。为了抓取不同尺度的图像特征并且对复原图
像实现像素级的预测,网络的设计借鉴了U net构架[12]
并将运动信息转换为图像格式输入网络。针对该训练任务,通过分
析运动模糊产生的原理提出了逼真模糊图像的生成方法。将
训练好的网络模型在K
hler数据集[13]
上进行实验,并与当前最先进的模糊算法进行比较,得到了较好的效果。同时本文提出了一种生成复合运动模糊图像的方法,并通过此方法制作了含有大尺度旋转的测试数据集,证实了本文方法可以有效恢复空间可变运动模糊图像。
1 网络设计
1 1 网络整体框架
网络结构的设计借鉴U net网络模型,U net网络结构广泛用于语义分割任务,最初的提出用于医学图像分割,属于全卷积网络。其结构主要分为编码器和解码器两部分。编码器通过多个卷积层与池化层提取不同维度的特征,解码器对顶层特征进行多层反卷积将特征图恢复到原始输入的大小,从而对每一个像素都能产生一个预测。编码器与解码器之间的特征
映射采用s
kipconnect连接,这样可以将低层次的特征图与高层次的特征图结合起来,帮助解码器更好地修复图像的细节。为了使网络能更好地应用于复合运动模糊的去除,本文将网络设计为五通道输入、三通道输出。其中五通道输入为两通道图像格式的运动信息与三通道彩模糊图像,三通道输出为彩清晰图像。对于两通道运动信息的计算,首先将模糊运动转换至像素坐标系并分解至x轴与y轴,再分别将x轴与y轴的运动归一化至0~255的图像灰度范围,具体计算方法将在2.1节阐述。网络整体结构如图1
所示。
1 2 网络参数设置
网络中每一个卷积块包括两层conv卷积层、BN归一化层和ReLU激活层,maxpoolin
g为最大池化层,upconv为转置卷积层。其中卷积层选用大小为3×3的卷积核,这样计算量更小且非线性映射能力更强,在每一次卷积运算后加入BN层对每一层的特征作归一化,加快网络收敛速度。pooling层选用2×2maxpooling,在增大感受野的同时降低了运算量,保证恢复效果的同时也提高了运算速度。网络的左右两部分分别是编码器和解码器。编码器结构与常用的卷积神经网络相同,输入图像首先通过卷积块转换为64通道特征图,然后经过连续四次池化与卷积转换为1024通道特征图。解码器包含连续四次转置卷积与卷积块,每一次转置卷积将特征图的通道数减半、宽度与高度翻倍,再经skipconnect与编码器中相同尺寸的特征图融合,最后经卷积块输出至下一层解码器。特征图最终复原到原图尺寸后降维至3通道,特征图具体变化如表1所示。该设计结构可以通过逐层p
ooling获得较大的感受野,同时可以融合底层特征抓取图像细节,在速度与精度之间达到平衡。网络的损失函数选用均方误差(MSE),定义如下:
MSE=1M×N∑0≤i≤M∑0≤j≤N
(fij-fij
′)2
(2)
在常用的正则化计算方法中 属于
其中:fij′为网络输出复原图像在点(i,j)处的像素值;fij为清晰图像在点(i,j)处的像素值;M、N分别为图像的宽度与高度。
表1 特征图尺寸
Tab.1 Featuremapsize
特征图
特征图尺寸
特征图通道数
input496×3685conv_1496×36864encode_conv_1248×184128encode_conv_2124×92256encode_conv_362×46512encode_conv_431×231024decode_conv_162×46512decode_conv_2124×92256decode_conv_3248×184128decode_conv_4496×36864conv1×1
496×368
2 网络训练
2 1 运动模糊图像生成
在曝光时间内(一般在0.1s以内)的相机运动主要为平移与旋转的复合运动。在图像坐标系中,像素的运动主要由以下四个量决定:旋转中心、旋转角度、平移的方向与长度。为了使数据中包含各种运动的组合,构建运动完备的数据集,在对每张图片生成运动信息的时候,随机确定以上四个量的值,其
中旋转中心(rx,ry
)为图像中任意一点,旋转角度θ的取值为0~0.04弧度,平移方向δ取值为0~2π弧度,
平移长度L的取值为0~
25像素。结合运动模糊产生的物理机理,根据给定运动信息,可以
·972·第1期董星煜,等:融合运动信息的图像运动模糊去除算法   
求取每一像素点(x,y)的运动轨迹。假设相机曝光时间为T,
将曝光时间等分为n
个阶段,则在每个Δt=T/n(<1ms)阶段内,可以将像素点近似为匀速运动。
像素点(x,y)在整个曝光时间T内会形成一条运动轨迹,其中在时刻ti(i=0,1,…,n)的轨迹坐标为(xti,yti
):xti
=-R×cosα+i×θ
()
n+Ln
×cosδ+x(3)yti=R×sinα+i×θ
()
n+Ln
×sinδ+y(4)
其中R为像素点与旋转中心的距离:
R=(x-rx)2+(y-ry
)槡2
(5)
α为像素点(x,y)与旋转中心(rx,ry
)的连线相对于x轴的夹角:
α=arctan(y-ry/x-rx
)(6)
则像素点(x,y)在模糊图像中的像素值IB
(x,y)为IB
(x,y)=1
n∑i∈(
0,n)I(xti,yti)(7)
其中:I(xti,yti)为轨迹上每一点在清晰图像中的像素值。根据上述方法产生模糊图像,每一个像素点的运动信息
(mx,my
)均不同,求取该运动并分解至x与y坐标轴:mx=-
Rθ×sinα+Lcosδ(8)my=
Rθ×cosα+Lsinδ(9)
将每一像素点的运动信息归一化为0~255,即为网络的两通
道运动信息输入。
本文用以上方法对PASCAL VOC2012数据集进行处理,生成的模糊图像与运动信息图像如图2
所示。
2 2 实验环境及设置
本实验在CPU为i5 3470,GPU为NVIDIA1080Ti的计算
机上进行,初始学习率设置为0.005,衰减率为0.8,批大小为
4,并使用Adam优化器优化损失函数[12]
,网络的训练周期为7天,训练loss曲线如图3所示。由图3可以看出训练前期曲线有小幅波动,
可能是batch选用较小的原因,随着迭代次数的增加,图像MSE趋于平缓,损失函数收敛,
模型达到了最优。
3 实验结果及分析
为了评估本方法的去模糊效果,本实验选用K hler数据
集[11]
和自行生成的测试集进行验证实验。K
hler数据集通过记录真实相机的运动轨迹再通过机器人平台进行回放,在运动过程中记录一连串清晰图像形成模糊图像,该模糊由6自由度运动产生,最贴近真实图像模糊。数据集包含四张清晰图,每张图像用12个模糊核进行处理,最后形成48张模糊图像。对于带有旋转运动的模糊图像,如果旋转量较小,可以假定全图为均匀变化运动模糊,但是在实际场景中有许多情况不满足此
种简化,因此本文又制作了带有大尺度旋转的图像数据集来测
试本文算法的效果。3 1 评价指标
在进行复原质量评估时选用峰值信噪比和结构相似性(
structuralsimilarityindex,SSIM)两项指标作为性能衡量的标准。
PSNR表示一个信号最大可能功率和影响它的表示精度的破坏性噪声功率的比值,通常用对数分贝单位来表示。定义如下式:
PSNR=10×log10MAX2I
MSE(10)
其中:MAXI表示图像的最大像素值,
本文每个采样点均用8位保存,因此MAXI值为2
55;MSE为均方误差。SSIM用于衡量两张图像的相似程度,相比于峰值信噪比,结构相似性在图像品质上更加符合人眼对图像品质的判断。针对图像I1和I2定义如下:
SSIM(I1,I2)=[l(I1,I2)]α[c(I1,I2)]β[s(I1,I2
)]γ
(11)
其中l(I1,I2)比较I1和I2的亮度,
计算方法如下:l(I1,I2)=2μI1μI
2+C1μ2I1+μ2
I2
+C1(12)
c(I1,I2)比较I1和I2的对比度,
计算方法如下:c(I1,I2)=2σI1σI
2+C2σ2I1+σ2
I2
+C2(13)
s(I1,I2)比较I1和I2的结构,
计算方法如下:s(I1,I2
)=σI1I2
+C3σI1σI
2+C3(14)
其中:α、β、γ为调整l(I1,I2)、c(I1,I2)、s(I1,I2
)相对重要性的参数;C1、C2、C3皆为常数用于维持公式的稳定性;μI1及μI2、σI1及σI2分别为I1和I2的平均值和标准差;σI1I2为I1和I2的协方差。
3 2 K hler数据集算法比较
在K hler数据集上,本文与最先进的去模糊算法进行比
较,表2为不同去模糊算法在K hler数据集上的质量评估结果,图4展示了针对同一模糊图像的不同算法的复原结果。
表2 K hler数据集质量评估结果
Tab.2 QualityassessmentresultsontheK hlerdataset
方法PSNR/dBSSIMtime/s文献[8]25.860.800.22文献[14]27.780.826.34文献[15]22.130.62144.20文献[16]26.160.797.87本文
27.92
0.80
0.1
  文献[14]虽然假设的是局部均匀模糊模型,但其对噪声
抗性较高,且对大尺度模糊的复原效果较好,因此在该数据集上表现出了较好的效果,但是在图像边缘处局部出现振铃效
应。文献[
16]提出的是非均匀模糊算法,在数据集上的表现稍逊于文献[14],在模糊尺度较大时,图像的恢复效果较
差,伪影较为严重,在边缘处出现多余信息。文献[
15]为快速去卷积模型,但其鲁棒性较差,图像出现较明显的振铃效应,在
数据集上的表现最差。文献[
8]在结构相似性方面表现出了较好的结果,但是其网络在像素空间未使用l2距离,
因此峰值信噪比的结果较差。分析复原图像出现振铃效应的原因,有学
·082·计算机应用研究第38卷
者认为是由于PSF的估计存在误差[17]
。本文所用的模型假设的是空间变化的模糊模型,对每一像素点给定对应的运动信息,因此所用模型对旋转模糊的复原效果较好,并且本文选用
端对端的方法获取复原图像,避免了估计P
SF引入误差。从人眼直观来看,本文方法得到的复原图像边缘信息恢复较好,且没有振铃现象,但是网络未使用结构相似性约束,在亮度上
与原图略有差异,因此在S
SIM指标上未表现到最佳。从峰值信噪比来看,本算法得到的复原图像较当前最先进的算法提升了0
.14dB。在运行时间上,文献[14~16]均为传统方法,在求取复原图像时需要迭代更新,因此在速度上与深度学习方法有较大差距;本文方法相比于文献[8]所用GAN结构更为简单,在实时性上表现更佳。
3 3 复合运动测试集算法验证
为了验证本算法能有效复原含有大尺度旋转的复合运动模糊,本文通过选取不同场景的清晰图像,添加不同运动尺度的模糊,制作了相对应的测试图像集。在测试集上进行实验,复原结果的客观图像评价指标如表3所示。随着模糊尺度加
大,PSNR与SSIM均略有下降,但对比模糊图像PSRN平均上升5~6dB,SSIM平均约上升0.1,总体对于复合运动模糊复
原结果较好。图5是测试集上的实验结果,
可得本文的去模糊方法对于场景的依赖性较小,对于不同场景模糊图像,复原图像的纹理和边缘细节复原结果较好,且不存在明显伪影。
表3 模糊图像与复原图像指标比较
Tab.3 Comparisonofblurryimagesandrestoredimageindicators
旋转角度/rad平移长度
/pt模糊图像
PSNR/dB复原图像
PSNR/dB模糊图像SSIM复原图像
SSIM0~0.020~1024.5830.450.730.850~0.0210~2021.9227.710.640.760~0.0220~3020.7425.970.580.690.02~0.040~1023.3229.460.710.810.02~0.0410~2021.0726.350.600.770.02~0.04
20~30
19.88
24.83
0.57
0.7
4 结束语
针对现有去模糊方法难以较好地解决复合运动尤其含有
大尺度旋转运动的空间可变模糊问题,本文提出了融合运动信息的卷积网络,复原方法对每一像素点给
定运动约束,以端对端的方式快速实现模糊图像的复原,避免了模糊核估计带来的误差。实验结果表明,本文方法复原图像评价指标较高,纹理清晰,较好地抑制了振铃效应的产生,可以有效地恢复出高质量的清晰图像。参考文献:
[1]JoshiN,KangSB,ZitnickCL,etal.Imagedeblurringusinginer
tialmeasurementsensors[J].ACMTransonGraphics,2010,29
(4):articleNo.30.
[2]余义斌,彭念,甘俊英.凹凸范数比值正则化的快速图像盲去模糊
[J].电子学报,2016,44(5):1168 1173.(YuYibin,PengNian,GanJunying.Fastblindimagedeblurringusingratioofconcavenorm
convexnormregularization
[J].ActaElectronicaSinica,2016,44(5):1168 1173.)[
3]KrishnanD,FergusR.Fastimagedeconvolutionusinghyper Lapla cianpriors[C]//AdvancesinNeuralInformationProcessingSystems.2009:1033 1041.[4]TangShu,ZhengWanpeng,XieXianzhong,etal.Multi regulariza
tion constrainedblurkernelestimationmethodforblindmotionde blurring[J].IEEEAccess,2019,7:5296 5311.[5]DeshpandeAM,PatnaikS.OnimprovingaccuracyofPSFestimation
inspectralandcepstrumdomainwithmorphologicalfiltering
[C]//Procofthe1stInternationalConferenceonEmergingTechnologyTrendsinElectronics,Communicat
ion&Networking.Piscataway,NJ:IEEEPress,2012:1 6.[6]XuXiangyu,PanJinshan,ZhangYuji,etal.Motionblurkerneles
timationviadeeplearning[J].IEEETransonImageProcessing,2017,27(1):194 205.[7]SunJian,WenfeiCao,ZongbenXu,etal.Learningaconvolutional
neuralnetworkfornon uniformmotionblurremoval[C]//ProcofIEEEConferenceonComputerVisionandPatternRecognition.Pisca
taway
,NJ:IEEEPress,2015:769 777.[8]KupynO,BudzanV,MykhailychM,etal.DeblurGAN:blindmo
tiondeblurringusingconditionaladversarialnetworks[C]//ProcofIEEEConferenceonComputerVision
andPatternRecognition.Pisca taway,NJ:IEEEPress,2018:8183 8192.[9]MustaniemiJ,KannalaJ,S rkk S,etal.Gyroscope aidedmotion
deblurringwithdeepnetworks[C]//ProcofIEEEWinterConferenceonApplicationsofComputerVision.Piscataway,NJ:IEEEPress,2019:1914 1922.[10]王司雨,李良荣,顾平,等.一种混合的单图像去运动模糊方法
[J].电子技术应用,2019,45(9):81 84.(WangSiyu,LiLiang rong,GuPing,etal.Amixedsingleimagemotiondeblurmethod[J].ComputerTechnologyandItsApplications,2019,45(9):81 84.)[
11]吴梦婷,李伟红,龚卫国.双框架卷积神经网络用于运动模糊图像盲复原[J].计算机辅助设计与图形学学报,2018,30(12):2327
2334.(WuMengting,LiWeihong,GongWeiguo.Two frameconvo lutionalneuralnetworkforblindmotionimag
edeblurring[J].JournalofComputer AidedDesignandComputerGraphics,2018,30(12):2327 2334.)[12]RonnebergerO,FischerP,BroxT.U net:convolutionalnetworksfor
biomedicalimagesegmentation[C]//ProcofInternationalConferenceonMedicalImageComputingandComputer AssistedIntervention.Cham:Springer,2015:234 241.[13]K hlerR,HirschM,MohlerB,etal.Recordingandplaybackof
camerashake:benchmarkingblinddeconvolutionwithareal worlddatabase[C]//ProcofEuropeanConferenceonComputerVision.Berlin:Springer,2012:27 40.[14]XuLi,ZhengShicheng,JiaJiaya.Unnaturall0s
parserepresentationfornaturalimagedeblurring[
C]//ProcofIEEEConferenceonCom puterVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2013:1107 1114.[15]HirschM,SchulerCJ,HarmelingS,etal.Fastremovalofnon uni
formcamerashake[C]//ProcofInternationalConferenceonCompu terVision.Piscataway,NJ:IEEEPress,2011:463 470.[16]WhyteO,SivicJ,ZissermanA.Deblurringshakenandpartiallysa
turatedimages[J].InternationalJournalofComputerVision,2014,110(2):185 201.[17]ShanQi,JiaJiaya,AgarwalaA.High qualitymotiondeblurringfrom
asingleimage[J].ACMTransonGraphics,2008,27(3):articleNo.73.[18]KingmaDP,BaJ.Adam:amethodforstochasticoptimization[EB/
OL
].(2017 01 30).https://arxiv.org/abs/1412.6980.·182·第1期董星煜,等:融合运动信息的图像运动模糊去除算法   

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。