收稿日期:2019 11 04;修回日期:2019 12 26  基金项目:国家自然科学基金资助项目(61601230);江苏省自然科学基金资助项目(BK20141004)
  作者简介:李志恒(1994 ),男,江苏泰州人,硕士研究生,主要研究方向为机器学习、计算机视觉(lizhiheng815918@163.com);何军(1978 ),男,河南郑州人,教授,硕导,博士,主要研究方向为机器学习、计算机视觉;胡昭华(1981 ),女,江苏南京人,副教授,硕导,博士,主要研究方向为视觉跟踪和识别.
基于dropout正则化的半监督域自适应方法
李志恒a,b,何 军a,b
,胡昭华a
(南京信息工程大学a.电子与信息工程学院;b.人工智能学院,南京210044)
摘 要:针对机器学习中训练样本和测试样本概率分布不一致的问题,提出了一种基于dropout正则化的半监
督域自适应方法来实现将神经网络的特征表示从标签丰富的源域转移到无标签的目标域。此方法从半监
督学习的角度出发,在源域数据中添加少量带标签的目标域数据,使得神经网络在学习到源域数据特征分布的同时也能学习到目标域数据的特征分布。由于有了先验知识的指导,即使没有丰富的标签信息,神经网络依然可以
很好地拟合目标域数据。实验结果表明,此算法在几种典型的数字数据集S
VHN、MNIST和USPS的域自适应任务上的性能优于现有的其他算法,并且在涵盖广泛自然类别的真实数据集CIFAR 10和STL 10的域自适应任务上有较好的鲁棒性。
关键词:域自适应方法;正则化;半监督学习;神经网络中图分类号:TP391 41   文献标志码:A   文章编号:1001 3695(2021)02 053 0591 04doi:10.19734/j.issn.1001 3695.2019.11.0650
Semi superviseddomainadaptationmethodbasedondropoutregularization
LiZhihenga,b,HeJuna,b,HuZhaohua
(a.SchoolofElectronics&InformationEngineering,b.SchoolofArtificialIntelligence,NanjingUniversityofInformationScience&Technology,Nanjing210044,China)
Abstract:Aimingattheproblemofinconsistentprobabilitydistributionbetweentrainingsamplesandtestsamplesinmachine
learning,thispaperproposedasemi superviseddomainadaptationmethodbasedondropoutregularizationtotransferneural
representationsfromlabel richsourcedomainstounlabeledtargetdomains.Fromtheperspectiveofsemi supervisedlearning
,thispaperaddedasmallamountoflabeledtargetdomaindataintothesourcedomaindata,sothattheneura
lnetworkcouldlearnthefeaturedistributionoftargetdomaindatawhilelearningthefeaturedistributionofsourcedomaindata.Withthegui
danceofpriorknowledge
,neuralnetworkcouldfittargetdomaindatawellevenwithoutabundantlabelinformation.Experi mentsshowthattheproposedalgorithmissuperiortootherexistingalgorithmsindomainadaptationperformanceondigitaldatasetsandrobustonrealdatasetscoveringawiderangeofnaturalcategories.Keywords:domainadaptationmethods;regularization;semi supervisedlearning;neuralnetwork
0 引言
深度神经网络[1]在计算机视觉、自然语言处理和机器人控制等多个领域的应用中取得了巨大的成功。然而,由于一种
称之为数据集偏置(
datasetbias)或者域漂移(domainshift)的现象,深度神经网络在一个大规模的有标签的数据集上训练好后,并不能很好地推广到新的数据集中。最典型的解决方法就是在具体任务的数据集上,对预训练好的网络进行微调。但是获得足够多的带标签的数据来微调参数巨大的神经网络往往是困难的,因此域自适应学习方法被提出来解决这类问题。早期的域自适应学习方法主要可以分为基于实例和基于特征表示的自适应两类。对于基于实例的自适应,这些方法通过源域和目标域的非参数匹配来直接计算重采样权值。对于基于特
征表示的自适应,文献[
2~5]试图通过将两个域投射到一个共同的特征空间来减少源域和目标域之间的分布差异,例如深
度域混淆方法[4]
(deepdomainconfusionmethod,DoC)使用最
大平均差(
maximummeandiscrepancy,MMD)损失,来学习从源域到目标域的特征表示。随着Ganin等人[6]
在2015年通过
一个梯度反转层成功实现了域自适应以来,对抗性域自适应方
法在迁移学习中得到越来越多的关注。受到对抗生成网络[7]
(generativeadversarialnet,GAN)的启发,提出了运用竞争目标来跨域对齐分布的方法,如文献[8~10]。尤其是文献[11]引入了一种新的对抗性域自适应框架,目标域特征生成器T和
域判别器D相互竞争,
使得T生成接近源域的对等项的特征分布来欺骗域判别器D。与传统的对抗生成网络的思想不同,
Saito等人[12]
提出了一种在主分类器网络C上使用dropout正则化(dropoutregularization),产生一个能够检测处于决策边界的目标域数据的判别器来代替传统的域判别器,生成器G生成更具区分性的特征来避免这些特征空间;然而,当数据特征具有非常复杂的模态结构时,对抗方法无法捕获多模态的数据
结构,容易造成负迁移。L
ong等人[13]
提出了一种条件对抗机制,旨在通过学习一个多维线性映射(
multilinearmap)来刻画多个特征和类别之间的关系。还有一些方法通过捕捉视觉模态和类语义模态之间的共同语义特征来实现域自适应。文献[
14]提出了一种称为潜在空间编码的新的编码解码器方式,通过对不同的模态分别建模,然后联合优化,对于每一种模态
第38卷第2期2021年2月 计算机应用研究
ApplicationResearchofComputersVol.38No.2
Feb.2021
都通过一个编码解码器框架来学习一个特征感知的潜在空间,
具有共性的特征被强制共享到相同的潜在空间中。文献[
15]针对跨模态学习中的视觉语义嵌入和域自适应提出了两种相
应的方法,分别称为自适应结构嵌入(
ASTE)和自定步选择策略(SPASS);ASTE通过自适应地调整松弛变量来体现训练实例之间的不同可靠性,在潜在结构的支持向量机框架中制定视觉语义交互;SPASS借鉴自定步长学习的思想,从可靠到不可靠的实例中迭代选择无标签的实例,逐步使知识从带标签的源
域适应到无标签的目标域。以上均是在无监督[
16]
条件下的域自适应方法,虽然这类方法在迁移学习中取得了很好的效果,但它们仅仅是鼓励神经网络尽可能去学习和源域特征分布相似的目标域特征(即学习两个域数据的共性特征),而没有考虑到目标域数据自身的特征分布情况,这在一定程度上限制了目标域识别精度的提升。
考虑到无监督域自适应方法存在的不足,本文从半监督学习[
17]
的角度出发,通过在源域数据中添加少量带标签的目标域数据,使得神经网络在学习到源域数据特征分布的同时,也能学习到一些目标域数据的特征分布的知识。在域自适应过程中由于有了先验知识的引导,神经网络能够更好地拟合目标域数据,从而提升目标域的识别精度。为了验证算法的可行
性,本文分别在三种典型的数字数据集S
VHN、MNIST和USPS的域自适应任务和真实世界数据集CIFAR 10和STL 10的域自适应任务上作测试。实验结果表明,本文模型在目标域上的识别精度优于文献[11,12]和其他已有的方法。
1 算法设计
无监督域自适应学习是一种通过学习源域和目标域的域
不变(domaininvariant)特征,从而在目标域没有标签的情况
下,将从源域学到的分类器应用于目标域的方法。A
DR[12](adversarialdropoutregularization)方法是当前无监督域自适应领域中的佼佼者,它最大的创新点在于在主分类器网络C上使用dropout正则化,产生一个能够检测处于决策边界的目标
域数据的判别器,特征提取器G为了避免这些特征空间,
不得不生成更有区分性的特征。模型原理如图1
所示。
d(p1(y|xt),p2(y|xt
))衡量的是两个输出概率之间的差异性,式中的p1(y|xt)、p2(y|xt)分别表示在同一个输入的情况下C1和C2预测的概率。具体的计算函数如下:
d(p1,p2
)=1
2(Dk
l(p1|p2)+Dkl(p2|p1))(1)
其中:Dkl(p|q)表示的是p和q之间的KL散度。当d(p1,p2
)的值越小,表示C1和C2预测的概率越一致,
反之预测的概率相差越大。ADR方法在训练主分类器C网络时最大化d(p1,p2
),使得处在主分类器C上不同的神经元学习更多不同的特征表示,来加强主分类器对于处于决策边界
的目标域数据敏感
性。随后又在训练特征提取器G网络时最小化d(p1,p2
),使得G网络学习到更有区分性的目标域特征。分类器C和特征
提取器G在训练过程中相互竞争、
交互更替,增强了模型对目标域数据的泛化性。
尽管ADR方法在无监督的域自适应领域中取得了当前最
高水平的效果,但是它始终没有考虑到目标域数据的特征分布
情况,抑制了目标域识别精度的提升。本文引入A
DR方法的思想,从半监督学习的角度出发,在源域数据中添加少量带标签的目标域数据,使得神经网络在学习到源域数据的特征分布的同时,也学习到了目标域数据的特征分布的知识。在本文算
法中,
C网络同时具有分类器和判别器两种作用,具体的优化过程可分为以下三个阶段:
第一阶段:在这个阶段C网络的主要作用是分类器,训练过程遵循监督学习的协议。如图2所示,特征提取器G和分类器C必须对混合数据进行准确的分类,才能获得更具区分性的特征。在整个数据集中,无标签的目标域数据和混合数据各占50%,其中混合数据是由40%的源域数据和10%的带标
签的目标域数据组合而成(
10%的带标签的目标域数据是从无标签的目标域数据中随机采样20%进行人为标记得到的。带标签的目标域数据的比例可根据不同数据集的实际情况来自主设置,在本文实验中设置比例为10%已经可以较好地拟合网络,所以本文以这个比例为例进行后续的实验)。最小化混合数据的标准分类损失来更新整个网络。具体损失函数为
minC,G
L(Xm,Ym)=-E(xm,ym)~(Xm,Ym)∑K
k=1ll[k=ym
]logC(G(xm))k(2)
其中:Xm、Ym表示的是在源域数据中添加少量带标签的目标域数据形成的新的数据集和它对应的标签信息。C(G(xm))k表
示从数据集Xm中采样的数据xm被分成k
类的概率。第二阶段:在这个阶段,C网络的主要作用是判别器,检测处于决策边界附近的目标域数据。如图3所示,通过对每个目标域数据(混合数据中的目标域数据除外)使用两次dropout(两次dropout是在固定G网络生成目标域特征的情况下,运行两次C网络),由于dropout是随机删除网络中隐藏的神经元,所以相当于从C网络中采样出两个网络C1和C2,得到相应的分类概率P1(y|xt)和P2(y|xt)。然后最大化d(p1,p2)来更新C网络的参数,使得C网络对处于决策边界的目标域数据敏感。具体损失函数如下:
minC
L(Xm,Ym)-Ladv(Xt
)(3)Ladv(Xt)=Ext~Xt
[d(C1(G(xt)),C2(G(xt)))](4)
C1、C2是从C
网络中通过dropout
正则化随机采样的。第三阶段:如图4所示,特征提取器G通过最小化d(p1,p2
)来获得远离决策边界的目标域特征。具体损失函数如下:
minG
Ladv(Xt
)(5)
·295·计算机应用研究第38卷
2 数据集和预处理
2 1 SVHN、MNIST和USPS数据集
为了确保本文模型和其他域自适应模型的可比性,本文选用了MNIST[18]、SVHN[19]和USPS作为标准数据集。在SVHN到MNIST的域自适应任务中,本文使用完整的数据集并将MNIST数据集中图片的大小调整到32×32,通道数改为3,保持与SVHN数据集一致。在MNIST到USPS域自适应任务和USPS到MNIST的域自适应任务中,本文从MNIST数据集中采样出2000张图片,并且从USPS数据集中采样出1800张图片,然后将采样后的USPS数据集中的图片大小调整到28×28,保持与MNIST数据集一致。
2 2 CIFAR 10和STL 10数据集
为了验证本文模型的适用性,本文选用了涵盖广泛自然类别的真实世界数据集CIFAR 10和STL 10。在这个域自适应任务中,使用了完整的数据集并对STL 10的训练集和测试集分别作测试,如图5所示。值得注意的是,在STL 10的数据集中含有少量的灰度图片,在数据的预处理阶段应将这些图片转换成彩图片,保证所有图片的初始大小和维度是一致的。由于CIFAR 10和STL 10的标签不是完全对应的,应将相同类别
的实物标签统一。
经过反复验证和比较,选用Adam优化器来更新网络反向
传播时的梯度和参数,并设置第一阶段的学习率为1×10-3,
第二、第三阶段的学习率为2×10-4。为了加快网络的收敛速
度,本文在卷积层和全连接层的后面添加了BN(batchnormali
zation)层,同时BN层也降低了网络出现过拟合现象的风险。
表1表示本文算法和已经存在的域自适应方法在同一个
尺度下对数字数据集域自适应任务的识别精度的比较。从表
正则化可以理解为一种什么法中不难发现,本文算法相比于基线ADR方法拥有更好的域自
适应性能,同时也优于现有的其他方法。尤其是在SVHN到
MNIST的域自适应任务中,本文算法在MNIST数据集上取得
了99.24%的识别精度,几乎可以媲美MNIST数据集在监督学
习条件下的表现。实验证明,尽管无监督域自适应方法在域自
适应任务中有着很好的表现,但是想要更进一步提升算法在目
标域上的识别精度,还需要神经网络能学习到关于目标域的特
征分布的知识。本文算法从半监督学习的角度出发,在源域数
据中添加少量带标签的目标域数据,使得神经网络在第一阶段
学习到源域数据特征分布的同时也学习到了一些目标域数据的
特征分布的知识,当第三阶段用目标域数据对特征提取器进行
微调时,由于有了先验知识的指导,特征提取器能学到更好的目
标域特征,从而提高了神经网络在目标域数据上的识别精度。
表1 数字数据集上不同域自适应方法性能的对比
Tab.1 Performancecomparisonofdifferentdomain
adaptivemethodsondigitaldatasets/%
方法
识别精度
SVHNtoMNISTUSPStoMNISTMNISTtoUSPS
sourceonly67.168.177.0
DANN[6]73.973.0±2.077.1±1.8
DoC[4]68.1±0.366.5±3.379.1±0.5
ADDA[11]76.0±1.890.1±0.889.4±0.2
ADR[12]95.0±1.8793.1±1.2793.2±2.46
本文算法99.2498.7398.68
  图7表示以SVHN到MNIST的域自适应任务为例,本文
算法和基线ADR方法在目标域数据上识别精度的比较。从图
中可以清楚地看出,无论是从模型稳定性还是识别精度而言,
本文算法都优于ADR方法。同时,在第三阶段ADR方法在一
次完整的迭代中需要训练四次,而本文算法只需要训练一次,
有效地减少了训练所需的时间成本。
为了验证目标域数据的特征分布对于识别精度的影响,以
SVHN到MNIST域自适应任务为例,设计了四种实验:a)不添
加任何数据(ADR方法);b)在SVHN数据集中添加20%的标
签为“5”的MNSIT数据;c)在SVHN数据集中添加20%的标
签为“1~5”的MNIST数据;d)在SVHN数据集中添加20%的
标签为“0~9”的MNIST数据。表2表示在本文算法的前提
下,对应以上四种情况,模型在目标域数据上识别精度的比较。
从表中可以发现,即使只是在SVHN数据集中添加标签为“5”
的MNIST数据,本文模型在识别精度上与基线ADR方法相比
·
·
第2期李志恒,等:基于dropout正则化的半监督域自适应方法   
仍然有较大的提升。那是由于不同数据集之间存在数据集偏
置(
datasetbias)或者域漂移(domainshift)的现象,ADR方法通过鼓励神经网络学习不同域之间的共性特征来减少源域数据和目标域数据之间的分布差异,虽然取得较好的域迁移效果,但没有从根本上解决神经网络对目标域数据的特征分布模糊的问题。本文算法在源域数据中添加
了目标域数据之后,神经网络可以逐渐学习到目标域数据的特征分布知识,由于有了先验知识的指导,模型能更好地拟合目标域数据,从而提升了目标域的识别精度。当继续向SVHN数据集中添加标签为“1~5”甚至是“0~9”的MNIST数据时,随着添加数字的类别越来越丰富,模型对于MNIST数据集的识别精度也越来越高。这说明,在域自适应过程中,神经网络学习到的目标域的特征分布的知识越丰富,越能指导特征提取器生成更有区分性的目标域特征,提高模型的泛化性。
表2 SVHN到MNIST域自适应任务中添加不同类别数据性能的对比
Tab.2 Performancecomparisonofdomainadaptationfrom
SVHNtoMNISTofaddingdifferentlabelsdata/%
方法不添加任何数据(ADR方法)添加2
0%标签为“5”的数据添加20%标签为“1~5”的数据添加20%
标签为“0~9”
的数据
识别精度
95.0±1.87
98.03
98.77
99.24
3 3 真实世界数据集之间的自适应:CIFAR 10和STL 10为了验证本文算法的适用性,本文在涵盖广泛自然类别的
数据集CIFAR 10和STL 10上作进一步的测试。由于,CIFAR 10和STL 10的语义特征远比数字数据集要复杂得多,所以采
用VGG 16网络作为此次实验的特征提取器。VGG 16网络[21]
是十分经典的CNN模型,常被用在特征提取和迁移学习的任务中。VGG网络最显著的特点就是通过反复地堆叠3×3的小卷积核和2×2的最大池化层,增加网络的深度,从而有效地提升模型的性能。其中,VGG 16网络对于数据集有很好的泛化能力。由于与标准的VGG 16的输入相比,CIFAR 10和STL 10数据集中图片的尺寸要小很多,所以对VGG 16网络中全连接层的参数进行了调整。网络结构如图8所示。
ryclassifierGANs[C]//Procofthe34thInternationalConferenceonMachineLearning.2017:2642 2651.
[5]PanSJ,YangQiang.Asurveyontransferlearning[J].IEEETransonKnowledgeandDataEngineering,2010,22(10):1345 1359.[6]YanHaibin,AngMH,PooAN.Cross datasetfacialexpressionre cognition[C]//ProcofIEEEInternationalConferenceonRoboticsandAutomation.Piscataway,NJ:IEEEPress,2011:5985 5990.[7]MiaoYQ,AraujoR,KamelMS.Cross domainfacialexpressionrecognitionusingsupervisedkernelmeanmatching[C]//Procofthe11thInternationalConferenceonMachineLearningandApplications.Piscataway,NJ:IEEEPress,2012:326 332.
[8]ShocherA,CohenN,IraniM.Zero shotsuper resolutionusingdeepinternallearning[C]//ProcofIEEE/CVFConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2018:3118 3126.
[9]RonnebergerO,FischerP,BroxT.U Net:convolutionalnetworksforbiomedicalimagesegmentation[C]//ProcofInternationalConfe renceonMedicalImageComputingandComputer AssistedInterven tion.Berlin:Springer,2015:234 241.
[10]LiShan,DengWeihong.Reliablecrowdsourcinganddeeplocality preservinglearningforunconstrainedfacialexpressionrecognition[J].IEEETransonImageProcessing,2019,28(1):356 370.[11]LuceyP,CohnJF,KanadeT,etal.TheextendedCohn Kanadedataset(CK+):acompletedatasetforactionunitandemotion speci fiedexpression[C]//ProcofIEEECompute
rSocietyConferenceonComputerVisionandPatternRecognition Workshops.Piscataway,NJ:IEEEPress,2010:94 101.
[12]LyonsMJ,AkamatsuS,KamachiM,etal.TheJapanesefemalefa cialexpression(JAFFE)database[EB/OL].https://doi.org/10.5281/zenodo.3451524.
[13]DhallA,GoeckeR,LuceyS,etal.Staticfacialexpressionanalysisintoughconditions:data,evaluationprotocolandbenchmark[C]//ProcofIEEEInternationalConferenceonComputerVisionWork shops.Piscataway,NJ:IEEEPress,2011:2106 2112.
[14]GoodfellowIJ,ErhanD,CarrierPL,etal.Challengesinrepresen tationlearning:areportonthreemachinelearningcontests[C]//ProcofInternationalConferenceonNeuralInformationProcessing.Berli
n:Springer,2013:117 124.[15]SilvaFAMD,PedriniH.Effectsofculturalcharacteristicsonbuil dinganemotionclassifierthroughfacialexpressionanalysis[J].Jour nalofElectronicImaging,2015,24(2):1 9.
[16]ZhangXiao,MahoorMH,MavadatiSM,etal.Facialexpressionrecognitionusinglp normMKLmulticlass SVM[J].MachineVisionandApplications,2015,26(4):467 483.
[17]MayerC,EggersM,RadigB.Cross databaseevaluationforfacialex pressionrecognition[J].PatternRecognitionandImageAnalysis,2014,24(1):124 132.
[18]MollahosseiniA,ChanD,MahoorMH.Goingdeeperinfacialex pressionrecognitionusingdeepneuraln
etworks[C]//ProcofIEEEWinterConferenceonApplicationsofComputerVision.Piscataway,NJ:IEEEPress,2016:1 10.
[19]HasaniB,MahoorMH.Facialexpressionrecognitionusingenhanceddeep3Dconvolutionalneuralnetworks[C]//ProcofIEEEConfe renceonComputerVisionandPatternRecognitionWorkshops.Pisca taway,NJ:IEEEPress,2017:2278 2288.
[20]ShanCaifeng,GongShaogang,McOwanPW.Facialexpressionre cognitionbasedonlocalbinarypatterns:acomprehensivestudy[J].ImageandVisionComputing,2009,27(6):803 816.
[21]MeguidMKAE,LevineMD.Fullyautomatedrecognitionofspon taneousfacialexpressionsinvideosusingrandomforestclassifiers[J].IEEETransonAffec
tiveComputing,2014,5(2):141 154.[22]ZhouJuxiang,XuTianwei,GanJianhou.FeatureextractionbasedonlocaldirectionalpatternwithSVMdecision levelfusionforfacialex pressionrecognition[J].InternationalJournalofBio ScienceandBio Technology,2013,5(2):101 110.
[23]ZavarezMV,BerrielRF,Oliveira SantosT.Cross databasefacialexpressionrecognitionbasedonfine tuneddeepconvolutionalnetwork[C]//Procofthe30thSIBGRAPIConferenceonGraphics,PatternsandImages.Piscataway,NJ:IEEEPress,2017:405 412.
[24]LiuMengyi,LiShaoxin,ShanShiguang,etal.AU inspireddeepnetworksforfacialexpressionfeaturelearning[J].Neurocomputing,2015,159:126 136.
[25]LiShan,DengWeihong.Deepemotiontransfernet
workforcross da tabasefacialexpressionrecognition[C]//Procofthe24thInternatio nalConferenceonPatternRecognition.Piscataway,NJ:IEEEPress,2018:3092 3099.
(上接第594页)
[10]SaitoK,WatanabeK,UshikuY,etal.Maximumclassifierdiscre pancyforunsuperviseddomainadaptation[C]//ProcofIEEEConfe renceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2018:3723 3732.
[11]TzengE,HoffmanJ,SaenkoK,etal.Adversarialdiscriminativedo mainadaptation[C]//ProcofIEEEConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2017:7167 7176.
[12]SaitoK,UshikuY,HaradaT,etal.Adversarialdr
opoutregulariza tion[C]//ProcofInternationalConferenceonLearningRepresenta tions.2018.
[13]LongMingsheng,CaoZhangjie,WangJianmin,etal.Conditionaladversarialdomainadaptation[C]//AdvancesinNeuralInformationProcessingSystems.2018:1640 1650.
[14]YuYunlong,JiZhong,GuoJichang,etal.Zero shotlearningviala tentspaceencoding[J/OL].IEEETransonCybernetics,2018.ht tps://arxiv.org/abs/1712.09300.
[15]YuYunlong,JiZhong,GuoJichang,etal.Transductivezero shotlearningwithadaptivestructuralembedding[J].IEEETransonNeu ralNetworksandLearningSystems,2017,29(9):4116 4127.[16]殷瑞刚,魏帅,李晗,等.深度学习中的无监督学习方法综述[J].计
算机系统应用,2016,25(8):1 7.(YinRuigang,WeiShuai,LiHan,etal.Introductionofunsupervisedlearningmethodsindeeplearning[J].ComputerSystems&Applications,2016,25(8):1 7.)
[17]梁吉业,高嘉伟,常瑜.半监督学习研究进展[J].山西大学学报:自然科学版,2009,32(4):528 534.(LiangJiye,GaoJiawei,ChangYu.Progressinsemi supervisedlearningresearch[J].JournalofShanxiUniversity:NaturalScience,2009,32(4):528 534.)[18]NetzerY,TaoW,CoatesA,etal.Readingdigitsinnaturalimageswithunsupervisedfeaturelearning[C]//ProcofNIPSWorkshoponDeepLearning&UnsupervisedFeatureLearning.2011.
[19]LeCunY,BottouL,BengioY,etal.Gradient basedlearningap pliedtodocumentrecognition[J].ProceedingsoftheIEEE,1998,86(11):2278 2324.
[20]王秀席,王茂宁,张建伟,等.基于改进的卷积神经网络LeNet 5的车型识别方法[J].计算机应用研究,2018,35(7):2215 2218.(WangXiuxi,WangMaoning,ZhangJianwei,etal.Vehicletypereco gnitionbasedonimprovedconvolutionalneuralnetworkLeNet 5[J].ApplicationResearchofComputers,2018,35(7):2215 2218.)[21]SimonyanK,ZissermanA.Verydeepconvolutionalnetworksforlarge scaleimagerecognition[EB/OL].(2014 09 04).https://arx iv.org/abs/1409.1556.
[22]JetleyS,LordNA,LeeN,etal.Learntopayattention[EB/OL].(2018 04 06).https://arxiv.org/abs/1804.02391.
·
·
第2期赖阳文,等:嵌入注意力机制模型的人脸表情迁移学习方法   

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。