收稿日期:2020 03 14;修回日期:2020 05 06 基金项目:国家自然科学基金资助项目(91746107)
作者简介:赵宇欣(1995 ),女,山西晋中人,硕士研究生,主要研究方向为机器学习、深度学习、计算机视觉(zhaoyuxin_alice@tju.edu.cn);王冠(
1992 ),女,内蒙古呼伦贝尔人,博士研究生,主要研究方向为深度学习、数学物理反问题.基于生成式对抗网络的画作图像合成方法
赵宇欣,王 冠
(天津大学数学学院,天津300354)
摘 要:画作图像合成旨在将两个不同来源的图像分别作为前景和背景融合在一起,这通常需要局部风格迁
移。现有算法过程繁琐且耗时,不能做到实时的图像合成。针对这一缺点,提出了基于生成式对抗网络(genera
tiveadversarialnet
,GAN)的前向生成模型(PainterGAN)。PainterGAN的自注意力机制和U Net结构控制合
成过程中前景的语义内容不变。同时,对抗学习保证逼真的风格迁移。在实验中,使用预训练模型作为PainterGAN的生成器,极大地节省了计算时间和成本。实验结果表明,比起已有方法,PainterGAN生成了质量相近甚至更好的图像,生成速度也提升了400倍,在解决局部风格迁移问题上是高质量、高效率的。关键词:图像风格迁移;生成对抗网络;图像合成;自注意力机制中图分类号:TP391 41 文献标志码:A 文章编号:1001 3695(2021)04 047 1208 04doi
:10.19734/j.issn.1001 3695.2020.03.0082Painterlyimagecompositionbasedongenerativeadversarialnet
ZhaoYuxin,WangGuan
(SchoolofMathematics,TianjinUniversity,Tianjin300354,China)
Abstract:Painterlyimagecompositingaimstoharmonizeaforegroundimageinsertedintoabackgroundpainting,whichisdonebylocalstyletransfer.Thechiefdrawbackoftheexistingmethodsisthehighcomputationalcost,whichmakesreal time
operationdifficult.Toovercomethisdrawback
,thispaperproposedafeed forwardmodelbasedongenerativeadversarialnet work(GAN),calledPainterGAN.PainterGANintroducedaself attentionnetworkandaU Nettocontrolthesemanticcontentinthegeneratedimage.Meanwhile,adversariallearningguaranteedafaithfultransferofstyle.PainterGANalsointroducedapre trainednetworkwithinthegeneratortoextractfeatures.ThisallowedPainterGANtodramaticallyreducetraining timeandstorage.Experimentsshowthat,comparedtostate of artmethods,PainterGANgeneratedimageshundredsoftimesfasterwithcomparableorsuperiorquality.Therefore,itiseffectiveandefficientforlocalstyletransfer.Keywords:imagestyletransfer;GAN;imagecompositing;self attention
0 引言
图像合成属于图像变换问题,目的是通过模型将一个简单的粘贴合成图像转变成一个融合为一体的图像。例如,将一个人像(前景)插入到一张照片(背景)中,图像合成期望将两者融合在一起,使得观察者以为这个人像本来就在照片中。因为前景和背景的光线、明亮、纹理等风格特征不同,简单的粘贴合成会造成不自然的视觉效果,可以被轻易判断为假的合成物。因此需要一个融合过程将背景的部分风格迁移到前景来,使它们的合成物在视觉上是统一协调的。针对照片的图像合成,不同工作分别通过匹配前景和后景的统计特征,如直方图、均值
正则匹配一张图片方差[1]、协方差[2]
等进行融合。针对画作的图像合成,Luan等人[3]
提出了基于PatchMatch和神经网络的局部风格迁移模型。本文也就这一问题提出新的思路。与图像合成紧密相连
的一个概念就是图像的风格迁移。随着深度学习[
4,5]
的进一步发展,文献[6]提出神经风格迁移(neuralstyletransfer,NST),通过深度神经网络将油画的风格特征迁移到图像上,同时保留了图像本身的内容。考虑到NST的优化过程较为耗时,文献[7,8]设计了快速前向生成模型,提高了图像生成的
速度。在这之后,大量的工作
[9,10]
被提出,积极推动了这个领域的发展。目前这些工作都是针对全局风格迁移问题,不适用于画作图像的合成,例如,粘贴一束花到梵高的油画作品星空中,一个理想的融合结果是这束花具有和画中其他植物相似的
风格,而不是集中夜空、山脉、人物所有风格于一体。
生成式对抗网络[11]
在2
014年被提出,在很多图像问题上有令人印象深刻的表现。GAN由生成器和鉴别器组成,其中生成器试图生成与真实数据相似的图片,而鉴别器则尽力识别出这些生成的图片,直到它们达到纳什平衡,在这种状态下,生
成器可以生成足够逼真的数据。c
GAN[12]
用卷积神经网络构造生成器和鉴别器,并用于解决图像方面的问题;IcGAN[13]
将GAN和编码器结合起来在特征空间编辑图像属性,以控制图
像的生成;CycleGAN[14]
用双向映射的GAN模型来完成图像到
图像的生成任务;
Zhang等人[15]
将自注意力机制插入到GAN中,大幅提升图像生成质量。不同于对图像迭代优化的思路,这些模型极大地提升了图像的生成速度,但是生成的图像细节性不够,不同像素区域之间相关性不强。
本文基于G
AN提出一个用于画作图像合成的全新模型PainterGAN。通过对抗训练,损失函数驱动PainerGAN学习目标背景的明暗、彩、纹理等风格特征,同时尽最大可能保留训练数据的语义内容不变。在训练完成后,将任意内容的前景图像输入到模型中,PainterAGN都可以将其渲染成目标的背景风格,当渲染完成的前景图像贴入背景中时,能完全融入其中,令
观看者无法判断该合成图像的真假,
PainterGAN以此完成从背景到前景的局部风格迁移。在这个过程中,一个关键点是原始内容和逼真风格之间的矛盾。当前景的内容被赋予较大的权重,迁移的风格通常与背景不一致;反之,当风格迁移更被重视,原本的内容会有一定程度的信息损失。基于单阶段的优化
第38卷第4期2021年4月 计算机应用研究
ApplicationResearchofComputersVol.38No.4
Apr.2021
方案很难同时平衡两者,如PatchMatch[16]
;基于二阶段的优化方案通过粗糙—细节两个阶段逐步优化生成图像,但是计算成
本过高,如DPH[3]
。PainterGAN在GAN的基础上进行改进,
通过引入自注意力机制和U
Net来控制前景的语义内容不变,同时对抗训练又保证风格逼真且与背景一致。在模型训练过程中,Painter
GAN用预训练的VGG替代生成器中的编码器,极大地节省了计算空间和时间。
1 本文方法
GAN的基本思想是通过映射将特定数据分布转换为目标
数据分布。训练过程中对抗损失函数驱动整个模型的参数优化,最终使之达到局部最优点。在画作的图像合成问题中,PainterGAN的生成器将前景映射到背景图像的分布中,使之具
有背景的风格特征。本节将对自注意力机制、
PainterGAN的网络结构和模型的损失函数进行详细描述。1 1 自注意力机制的基本原理
自注意力机制在图像生成过程中通过建立不同像素区域的相关性,有助于促进物体的轮廓完整。在卷积计算中,比起整幅图像,单个卷积核通常提供很小的感受野,例如3×3或者4×4。相应地,在卷积计算的前几层,图像的细颗粒度信息可以被捕获。随着层数的增加,卷积核的感受野逐渐变大,模型能抓取图像中的语义内容,但是深层的特征映射丢失了很多信息,不同区域之间建立的联系很难有效传递到模型的浅层。由于卷积计算的这些局限,已有的风格迁移方法倾向于生成带有破碎边缘的物体。自注意力机制是一个可行的解决方法。
自注意力机制通常用于自然语言处理中的前后文语义理
解。Zhang等人[15]
首次将其引入到GAN中用于图像分类。在其他的计算机视觉任务中,自注意力机制也被证明是有效的。从理论上说,它对人眼更容易注意到的图像区域反映更强烈,以此来增强物体的显著性。自注意力网络被引入在Painter
GAN的生成器下采样之后、上次采样之前。其基本思想[15]
可以总结为:
a)将编码器生成的特征映射输入到三个独立的卷积层,
f(x)=Wfx,g(x)=Wgx,h(x)=Whx中,假设输入为x∈ C×N
,
N=h×w,三个卷积层的系数矩阵分别为Wf∈ C′×C
,Wg∈
C′×C
,Wh∈ C×C。b)f(xi)、g(xi)用于计算h(xi
)的权重,有βj,i=exp(sij
)∑Ni=1
exp(sij
),sij=f(xi)T
g(xj
)(1)
其中:βj,i
用来衡量图像中第i块像素区域对生成第j块区域的重要性。
c)输出是h(xi)的加权和o=(o1,o2,…,oN)
。oj=∑N
i=1βj,ih(xi
)
(2)
d)考虑到一开始自注意力网络没有训练至局部最优点,参数γ用来调整输出。
yi=γoi+xi
(3)
通过以上步骤,自注意力网络逐步发挥作用,来影响图像
的生成。
1 2 PainterGAN的网络结构
如图1所示,PainterGAN主要包含生成器和鉴别器两个部分。其中生成器由编码器和解码器构成,它们的网络结构对称,对输入的图像分别进行下采样和重构。为了节省计算空间和时间,PainterGAN用训练好的VGG 19替代编码器。VGG具有强大的特征提取功能,能同时抓取图像的像素级信息和语义内容。
下采样过程产生32×32的多通道特征映射,在其进入解码器之前,自注意力网络计算特征映射中不同区域的相关性。
此外,
U Net串联编码器和解码器同一层级的特征。在编码器的指导下,解码器重构图像,生成器的结构如图2
所示。
PainterGAN的另一个重要组成部分是鉴别器。基于GAN
的模型一般向鉴别器输入真实数据和生成数据。鉴别器经过一个简单的下采样过程,对输入数据给出真(1)或假(0)
的判断。在本文的训练过程中,两种数据被分割为更小的像素块输入到模型的鉴别器中。这种处理减少了鉴别器的待训练参数,也使其具有更高的灵活性,能够接收任何像素的图像作为输入。综上,鉴别器用于监督进行逼真的风格迁移,自注意力机制和U Net负责保存原本的语义内容,它们互相合作,保持风格迁移过程中内容和风格的平衡。1 3 损失函数1 3 1 对抗损失函数
正如前文中提到的,对抗损失函数驱动生成器和鉴别器达到平衡,两者的参数在训练过程中交替优化。生成器的损失函数为
Ladv(G)=Efi~Sdata
(f)[log(1-D(G(fi)))](4)
鉴别器的损失函数为
Ladv(D)=Egi~Sdata
(g)[log(1-D(G(gi)))]+Ebi~Sdata
(b)[logD(bi)](5)
其中:fi、bi、gi分别代表采样的前景图像、
背景图像和生成图像。损失函数的值显示了生成图像在多大程度上拥有目标的风格。1 3 2 内容损失函数
除去合理的风格,生成图像也应该保存其原本的语义内
容。为了满足这个要求,DTN[17]
发现当图像x经过生成器得到G(x),那么f(x)和f(G(x))是统一的,这里的f是指将图像映射到特征空间的函数,这种现象被称为f constancy。它背后的逻辑是:外观改变的图像仍具有本身的高级语义内容特征。虽然这种方法是可行的,但是实验表明,f constancy是一个过于严苛的限制,在一定程度上压制了风格的多样性。
本文采用了像素级的内容损失函数来衡量输入图像和生成图像在内容上的不同。为了得到更清晰的图像细节,采用l1范数计算。
Lcon=Efi~Sdata
(f)[‖G(fi)-fi‖1](6)
1 3 3 TV正则项
为了鼓励图像的局部平滑,PainterGAN采用了TV正则项。
LTV=∑i,j
((xi,j+1-xi,j)+(xi+1,j-xi,j
))(7)
其中:xi,j
表示在(i,j)位置的像素值。综上,PainterGAN的损失函数为
L(G,D)=ω1Ladv+ω2Lcon+ω3LTV
(8)
其中:ω1、ω2、ω3分别代表对抗误差、
内容误差和正则项在整个函数中的权重。
·9021·第4期赵宇欣,等:基于生成式对抗网络的画作图像合成方法
2 实验
2 1 实验平台信息
本文实验基于带有NVIDIAGTX1080TiGPU处理器的Ubuntu16.04操作系统,通过Python语言和TensorFlow框架完成。预训练的VGG 19作为生成器中的编码器,生成的特征映射conv4_1作为自注意力网络的输入。U Net连接对称的下采样和上采样卷积层。整个网络训练200个回合,每批64个数据。优化器为Adam,初始学习率为0.0002,动量为0.5。
为了加速P
ainterGAN的生成器收敛到最优点,该网络被初始化为一个重构函数。只用内容损失函数训练10个回合,
生成器即可生成与输入相近的图像。文献[
18]也用同样的想法来加速模型优化。2 2 实验数据与处理
本文训练数据包含灰度图像和呈现不同风格的画作两部分。前者作为生成器的输入,后者和生成的图像作为鉴别器的输入。测试数据只包括灰度图像。
a)前景。3482张灰度图像来自电影《至爱梵高》,其中3070张用于训练模型,其余的用于测试。这些图像都经过裁剪,内容包括植物、建筑和人物等。
b)背景。背景图像来自四部画作电影,其中《至爱梵高》共2959张,《父与女》共2548张,《回忆积木小屋》共1570张,《种树的牧羊人》共4104张。四组数据属于不同的画作流
派,风格不同。所有的训练数据被裁剪至2
56×256大小,同时经过翻转和旋转来增强数据。2 3 实验结果对比
实验对NST[6]、DeepAnalogy[19]、DPH[3]
和PainerGAN进行对比,如图3~7所示。NST通过对输入的白噪声不断优化进行全局风格迁移,实验结果显示这种方式并不适合画作的图像合成,合成物可以轻易被判断为假。例如,图7中的盘子混合了多种背景的颜风格,使其与背景并不协调。此外,图3中的人物背景和图5
中的火车都未能渲染合适的风格。
DPH和DeepAnalogy的实验结果与本文PainterGAN的实
验结果是具有可比性的,但是个别图片表现较差。例如,在图4中,DPH将花瓶融入到了背景中,使前景的边缘线条难以分辨,这与整体的风格不一致。图3中的人物背景也有同样的问
题。D
eepAnalogy渲染前景的风格与背景是一致的,但是忽略了前景的语义内容,因此只有在前景和后景内容相近的情况下表现较好。与它们相比,PainterGAN不仅学习了视觉上足够逼真的风格,而且在合成过程中考虑到了前景的语义内容,在此基础上进行合理的局部风格迁移。值得一提的是,本文实验中前景统一被设置为256×256,但是PainterGAN在测试过程中可以接收任意大小的图像作为输入。2 4 实验性能量化比较
在模型的训练时间方面,比较PainterGAN在未使用预训练的编码器和使用预训练的编码器两种情况下的计算时间和所需内存。结果显示,在达到相同的实验效果时,使用预训练的编码器减少了33.82%的神经元,将模型的训练时间减少46.49%。在图像生成时间方面,四种风格迁移方法中,NST是全局的风格迁移,DeepAnalogy对前景和后景有严格的要求。只有DPH和PainterGAN适用于对任意前景的局部风格迁移,因
此这里对两者的图像合成时间进行比较,数值结果如表1
所示。表1 DPH和PainterGAN的生成速度比较
Tab.1 ComparisonofgenerationtimebetweenDPHandPainterGAN
背景+前景DPH/minPainterGAN/s
提速倍数至爱梵高+人物7.501450种树的牧羊人+帽子6.971432回忆积木小屋+盘子
7.421445父与女+火车7.571454平均时间及倍数
7.37
1
442
以上结果显示,PainterGAN能实时地生成图像,比DPH快400倍。从这个角度看,PainterGAN能有效学习图像的风格,并且能将任何前景高效地融入到该种风格的背景中。2 5 损失函数的超参数调节
PainterGAN的损失函数(式(8))的超参数ω1、ω2、ω3通过多次实验和调节,最终分别设为1
、70、50。这里选取三组不同超参数的损失函数和它们对应的测试结果进行对比,如图8
所示。
图8(a)(e)为输入的测试图像;(b)(f)的损失函数中ω1
、ω2、ω3均为1
,可以看出图像的原始内容有部分丢失,如图(b)中的花瓣发生畸变,图(f)中花瓶的颈部图案丢失。于是在(c)(g)中提高内容损失的权重,设ω1、ω2、ω3为1、50、1,但是在该组实验中,图中物体的边缘有不连续的情况,如图(g)中花朵的轮廓。(d)(h)中相应提高TV项的权重,设ω1、ω2、ω3为1、70、50,抑制图像生成过程中的畸变,也保留了完整的语义内容,渲染效果最好。
3 结束语
PainterGAN借助对抗训练,以图像到图像的前向生成方式重新考虑了图像合成中的局部风格迁移问题。它在GAN中引
·0121·计算机应用研究第38卷
入自注意力机制和U Net来提高图像的生成质量,还进一步探索使用预训练的VGG作为生成器的编码器部分,在保持模型生成图像质量不变的情况下,节省了训练时间和内存。实验表明,比起已有模型,PainterGAN能完成
与它们质量不相上下的风格迁移,甚至在某些情况下表现更好,同时极大地提高了图像的生成速度,实现了实时图像合成。但是将本文模型用在视频的局部风格迁移上仍有较大的问题,这也是未来一项值得研究的工作。
参考文献:
[1]ReinhardE,AshikhminM,GoochB,etal.Colortransferbetweenimages[J].IEEEComputerGraphicsandApplications,2001,21(5):34 41.
[2]LiYijun,LiuMingyu,LiXueting,etal.Aclosed formsolutiontophotorealisticimagestylization[C]//ProcofEuropeanConferenceonComputerVision.Cham:Springer,2018:453 468.
[3]LuanFujun,ParisS,ShechtmanE,etal.Deepphotostyletransfer[C]//ProcofIEEEConferenceonComputerVisionandPatternRecog nition.Piscataway,NJ:IEEEPress,2017:6997 7005.
[4]刘建伟,刘媛,罗雄麟.深度学习研究进展[J].计算机应用研究,2014,31(7):1921 1930.(LiuJianwei,LiuYuan,LuoXionglin.Researchanddevelopmentondeeplearning[J].ApplicationRe searchofComputers,2014,31(7):1921 1930.)
[5]毛勇华,桂小林,李前,等.深度学习应用技术研究[J].计算机应用研究,2016,33(11):3201 3205.(MaoYonghua,GuiXiaolin,LiQian,etal.Studyonapplicationtechnologyofdeeplearning[J].Ap plicationResearchofComputers,2016,33(11):3201 3205.)[6]GatysLA,EckerAS,BethgeM.Aneuralalgorithmofartisticstyle[EB/OL].(2015 08 26).https://arxiv.org/abs/1508.06576.[7]JohnsonJ,AlahiA,LiFeifei.Perceptuallossesforreal timestyletransferandsuper resolution[C]//ProcofEuropeanConferenceonComputerVision.Cham:Springer,2016:694 711.
[8]UlyanovD,LebedevV,VedaldiA,etal.Texturenetworks:feed forwardsynthesisoftexturesandstylizedimages[C]//Procofthe33rdInternationalConferenceonMachineLearning
.NewYork:ACMPress,2016:1349 1357.[9]IoffeS,SzegedyC.Batchnormalization:acceleratingdeepnetworktrai ningbyreducinginternalcovariateshift[C]//ProcofInternationalCon ferenceonMachineLearning.NewYork:ACMPress,2015:448 456.[10]LiChuan,WandM.CombiningMarkovrandomfieldsandconvolu tionalneuralnetworksforimagesynthesis[C]//ProcofIEEEConfe renceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2016:2479 2486.
[11]GoodfellowIJ,Pouget AbadieJ,MirzaM,etal.Generativeadver sarialnets[C]//ProcofInternationalConferenceonNeuralInforma tionProcessingSystems.Boston:MITPress,2014:2672 2680.
[12]MirzaM,OsinderoS.Conditionalgenerativeadversarialnets[J].ComputerScience,2014,5(32):2672 2680.
[13]IsolaP,ZhuJunyan,ZhouTinghui,etal.Image to imagetr
anslationwithconditionaladversarialnetworks[C]//ProcofIEEEConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2016:5967 5976.
[14]ZhuJunyan,ParkT,IsolaP,etal.Unpairedimage to imagetransla tionusingcycle consistentadversarialnetworks[C]//ProcofIEEEConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2017:2242 2251.
[15]ZhangHan,GoodfellowI,MetaxasD,etal.Self attentiongenerativeadversarialnetworks[EB/OL].(2018 05 21).http://export.arxiv.org/abs/1805.08318.
[16]ConnellyB,EliS,AdamF,etal.PatchMatch:arandomizedcorre spondencealgorithmforstructuralimageediting[J].ACMTransonGraphics,2009,28(3):articleNo.24.
[17]TaigmanY,PolyakA,WolfL.Unsupervisedcross domainimagegeneration[EB/OL].(2016 12 07).https://arxiv.org/ab
s/1611.02200.
[18]ChenYang,LaiYukun,LiuYongjin.CartoonGAN:generativead versarialnetworksforphotocartoonization[C]//ProcofIEEEConfe renceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2018:9465 9474.
[19]LiaoJing,YaoYuan,YuanLu,etal.Visualattributetransferthroughdeepimageanalogy[J].ACMTransonGraphics,2017,36(4):1 15.
(上接第1207页)
[2]KeysRG.Cubicconvolutioninterpolationfordigitalimageprocessing[J].IEEETransonAcousticsSpeech&SignalProcessing,1981,37(6):1153 1160.
[3]HouHS,AndrewsHC.Cubicsplinesforimageinterpolationanddigitalfiltering[J].IEEETransonAcousticsSpeechandSignalProcessing,1979,26(6):508 517.
[4]LiXin,OrchardMT.Newedge directedinterpolation[J].IEEETransonImageProcessing,2001,10(10):1521 1527.
[5]LiuYifang,ZhangYunfeng,GuoQiang,etal.Imageinterpolationbasedonweightedandblendedrationalfunction[C]//Procofthe12thAsianConferenceonComputerVision.Berlin:Springer,2014:78 88.
[6]刘一方.基于含参有理函数的图像插值理论及技术研究[D].济南:山东财经大学,2015.(LiuYifang.Researchonimageinterpola tiontheoryandtechnologybasedonparametricrationalfunction[D].Jinan:ShandongUniversityofFinanceandEconomics,2015.)[7]刘一方,张云峰,郭强,等.人眼视觉感知模型指导的有理函数图像插值[J].西安电子科技大学学报,2016,43(1):151 156.(LiuYifang,ZhangYunfeng,GuoQiang,etal.Imageinterpolationofra tionalfunctionguidedbyhumanvisualperceptionmodel[J].JournalofXidianUniversity,2016,43(1):151 156.)
[8]杜宏伟,张云峰,包芳勋,等.梯度优化的有理函数图像插值[J].中国图象图形学报,2018,23(5):766 777.(DuHongwei,ZhangYunfeng,BaoFangxun,etal.Rationalfunctionimageinterpolationforgradientoptimization[J].JournalofImageandGraphics,2018,23(5):766 777.)
[9]ZhangYunfeng,BaoFangxun,ZhangCaiming,etal.Localshapecontrolofabivariaterationalinterpolatingsurfacewithmixingcondi tions[C]//Procofthe8thInternationalSymposiumonVoronoiDia
gramsinScienceandEngineering.Piscataway,NJ:IEEEPress,2011:200 205.
[10]SunQinghua,BaoFangxun,ZhangYunfeng,etal.Abivariatera tionalinterpolationbasedonscattereddataonparallellines[J].Jour nalofVisualCommunicationandImageRepresentation,2013,24(1):75 80.
[11]RamponiG.Warpeddistanceforspace variantlinearimageinterpola tion[J].IEEETransonImageProcessing,1999,8(5):629 639.[12]ZhangLei,WuXiaolin.Anedge guidedimageinterpolationalgo rithmviadirectionalfilteringanddatafusion[J].IEEETransonIma geProcessing,2006,15(8):2226 2238.
[13]HungKW,SiuWC.Robustsoft decisioninterpolationusingweigh tedleastsquares[J].IEEETransonImageProcessing,2012,21(3):1061 1069.
[14]DongWeisheng,ZhangLei,LukacR,etal.Sparserepresentationbasedimageinterpolationwithnonlocalautoregressivemodeling[J].IEEETransonImageProcessing,2013,22(4):1382 1394.[15]LeeSJ,KangMC,UhmKH,etal.Anedge guidedimageinterpo lationmethodusingTaylorseriesapproximation[J].IEEETransonConsumerElectronics,2016,62(2):159 165.
[16]范清兰,张云峰,包芳勋,等.基于NSCT的区域自适应图像插值算法[J].计算机研究与发展,2018,55(3):629 642.(FanQing lan,ZhangYunfeng,BaoFangxun,etal.AregionadaptiveimageinterpolationalgorithmbasedontheNSCT[J].JournalofComputerResearchandDevelopment,2018,55(3):629 642.)
[17]朱炯,严丽军,马燕.改进SSIM图像评价系统的开发与应用[J].计算机工程与应用,2019,55(12):215 219.(ZhuJiong,YanLi jun,MaYan.DevelopmentandapplicationofimprovedSSIMimageevaluationsystem[J].ComputerEngineeringandApplications,2019,55(12):215 219.)
·
1
1
2
1
·
第4期赵宇欣,等:基于生成式对抗网络的画作图像合成方法
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论