山东农业大学学报(自然科学版),2023,54(5):700-709VOL.54NO.52023 Journal of Shandong Agricultural University(Natural Science Edition)doi:10.3969/j.issn.1000-2324.2023.05.009
基于YOLO v2的辣椒叶部蚜虫图像识别
邹玮1,岳延滨1*,冯恩英1,彭顺正1,张爱民2,肖玖军3
1.贵州省农业科技信息研究所,贵州贵阳550006
2.贵州省辣椒研究所,贵州贵阳550006
3贵州省山地资源研究所,贵阳550006
摘要:针对传统辣椒蚜虫识别精度不高、研究较少等问题,本研究一种基于YOLO v2的辣椒蚜虫图像识别方法,准确定位蚜虫位置,识别两种不同类型蚜虫,并探究不同网络深度对模型性能的影响。首先YOLO v2目标检测网络与Resnet50网络六种不同深度卷积结构相融合,构建辣椒蚜虫识别模型,然后利用预测框生成算法设置候选框参数,对六种模型进行训练,根据训练结果设计辣椒蚜虫识别系统。在验证集上进行对比试验,结果表明Resnet-22模型对辣椒叶部蚜虫识别精度最高,平均识别准确率为96.49%,其中黄蚜虫识别准确率为98.70%,绿蚜虫识别准确率为94.27%,识别时间为0.129s。Resnet-22模型具有较强的鲁棒性,为实现田间复杂背景下辣椒蚜虫识别奠定基础。关键词:辣椒;蚜虫;图像识别
中图法分类号:TP751文献标识码:A文章编号:1000-2324(2023)05-0700-10
Image Recognition of Aphid on Pepper Leaves Based on YOLO v2 ZOU Wei1,YUE Yan-bin1*,FENG En-ying1,PENG Shun-zheng1,ZHANG Ai-min2, XIAO Jiu-jun3
1.Guizhou Institute of Agricultural Science and Technology Information Research,Guiyang550006,China
2.Guizhou Institute of Pepper Research,Guiyang550006,China
3.Guizhou Institute of Mountain Resources,Guiyang550006,China
正则化损伤识别matlabAbstract:Aiming at the low identification accuracy and less research of traditional pepper aphid recognition,we studies a YOLO v2-based image identification method of pepper aphid to accurately locate aphid locations,identify two different types of aphids,and explore the impact of different network depths on model performance.First,the YOLO v2target detection network is integrated with six different deep convolutional structures of the Resnet50network to construct a pepper aphid recognition model,and then the candidate box parameters are set using the prediction box generation algorithm,finally, the six models are trained,and the pepper aphids identification system is designed.Th
e comparative test results on the validation set demonstrate that Resnet-22model has the highest identification accuracy,and achieves the average identification accuracy of96.49%on two different types of aphid species,the identification accuracy of yellow aphid and green aphid is98.70%and94.27%respectively,and the average identification time of one picture is0.129s.Resnet-22 model is robust and lays the foundation for pepper aphid identification in a complex context in the field.
Keywords:Pepper;aphid;image recognition
目前我国辣椒常年种植面积约为214.4多万hm2,是我国种植面积最大的蔬菜作物之一,栽培面积和总产量居世界首位[1]。由于受天气、土壤和防治技术等因素的影响,蚜虫危害日益加重,严重降低了辣椒品质和产量。蚜虫多以成虫、若虫集于辣椒叶背和嫩尖上刺吸汁液,主要危害表现为:嫩叶卷曲皱缩、成龄叶上产生褪绿斑点,叶片发黄,老化,植株矮小、生长缓慢,严重的甚至萎蔫枯死,此外,蚜虫还是造成病毒病传播的主要媒介,其吸食汁液后排泄的蜜露会诱发煤污病[2]。一般辣椒受害减产可高达20%~30%,因此,对蚜虫进行早期识别和防控是保证辣椒高产、优质的重要措施之一。
传统的作物病虫害识别方法仍停留在人工调查和田间取样上,该过程耗时、费力,而且存在代表性差、主观性强和时效性差等弊端,从而影响作物病虫害及时防治。随着计算机技术的不断发展,
收稿日期:2023-02-26修回日期:2023-05-02
基金项目:贵州省科技计划项目(黔科合支撑[2021]一般173);贵州省科技计划项目(黔科合支撑[2020]IY172号)
第1作者简介:邹玮(1997-),女,硕士,实习研究员,主要从事图像处理、植物表型等方面研究工作.E-mail:**************** *通讯作者:Author for correspondence.E-mail:***************
第5期邹玮等:基于YOLO v2的辣椒叶部蚜虫图像识别·701·
利用图像处理技术对病虫害进行识别,已成为农作物病虫害监测的重要研究方向[3]。传统识别方法是基于颜、纹理和形状特征对图片信息进行提取分析,由于受作物种类、病虫害类型、光照环境等因素的影响,病虫害特征提取较为困难[4]。在作物病虫害分类识别的研究中主要包括支持向量机(SVM)、K-Means聚类算法[5]、贝叶斯分类器以及人工神经网络(ANN)等几种比较典型的传统机器学习算法。如彭勤等[6]基于支持向量机SVM提取豆类病害特征并对豆类作物斑病进行分类识别,模型准确率为93.27%。杨昕薇等[7]用逐步判别分析法对水稻常见的3种病害特征进行分析,发现识别准确率与病斑的饱和度纹理相关性较大,与颜相关性较小,在剔除相关性较小的特征后利用贝叶斯分类器进行分类识别,平均准确率达97.5%。房俊龙等[8]通过提取图像中番茄果径和圆度特征并结合人工神经网络可以准确地判断番茄生理病害果。
基于深度学习的卷积神经网络(Deep convolutional neural network,DCNN)能够不依赖特定特征,在目
标检测领域得到了广泛应用。目前目标检测方法主要分为两类:一是基于区域生成的检测方法,先由算法生成一系列样本候选框,再对候选框中的目标进行分类,R-CNN[9]、Fast R-CNN[10]网络均属于这类算法,宋中山等[11]提出一种基于二值化的Faster R-CNN区域检测模型对自然环境下柑橘叶片病害进行检测,平均准确率为87.5%。这类方法检测精度高、漏检率也较低,但运行时间长,难以满足现实场景需求。二是基于回归的方法,该方法通过一系列卷积操作提取特征,最后进行分类和边框回归,实现了输入原始图像到直接输出目标位置和类别的优化[12]。典型算法有SSD[13]和YOLO[14-16]系列网络,这类方法运行速度快,而且实时检测精度也能达到第一类方法的水平[17]。
以上基于传统机器视觉和基于深度学习的目标检测算法模型,相对于传统的作物病虫害识别方法来说检测时间和识别精度均取得了较好的效果,但是,基于回归的目标检测算法在辣椒虫害识别方面的研究还较少。因此,本研究以离体辣椒叶片上的蚜虫为研究对象,提出一种基于YOLO v2目标检测网络的辣椒蚜虫识别算法,以期为实现田间辣椒蚜虫精细化、智能化管理奠定基础。
1材料与方法
1.1试验环境
本研究中模型训练的硬件环境配置为:Windows1064位操作系统,CPU为Intel(R)Core(TM) i5-104002.9GHz,GPU为NVIDIA GeForce GT710内存10G,系统型号为戴尔Vostro3888-China HDD Pro
tection1.3.1。软件开发环境为:CUDA11.4,MATLAB2020b。图像采集装置为iPhone XR,图像分辨率为3024像素×4032像素。
1.2数据来源与预处理
1.2.1数据来源辣椒蚜虫叶片采集于贵州省农业科学院,采集时间2022年8月,采集的叶片带回实验室后平铺在吸光白板上,分别采集蚜虫叶片正反面图像,并用标签做好标记,拍摄高度约为12cm。
1.2.2数据预处理原图采集的辣椒叶片图像中包含了标签、蚜虫和背景板,如果对原图进行目标检测,将出现模型的运行时间长、精度低等问题,所以需要对图片进行尺寸转换,以缩短网络运行时间,提升训练效率。根据特征提取网络对图像尺寸的要求,将原始图片裁剪为224×224大小,MATLAB 通过imcrop函数对图像目标区域进行截取,如图1所示。
a.目标截图Original screenshot
b.原图Original image
c.目标截图Target screenshot
图1截取蚜虫区域图像
Fig.1Intercepts images of aphid areas
经过裁剪后试验共采集了291张辣椒蚜虫样本图像,其中黄蚜虫图像146张,绿蚜虫图像
·702·山东农业大学学报(自然科学版)第54卷145张,这两种蚜虫分别代表了两种不同类型蚜虫的状态。一般而言,检测结果与光照、拍摄角度
等有很大关系,为了使模型具有较强的泛化能力,避免出现过拟合现象,采用数据增强技术对图像进行扩增[18],对已有图像进行平移、镜像、缩放、旋转、对比度增强以及高斯白噪声等操作将图像扩充至2619张,数据增强效果如图2所示。
a.原始图像Original image
b.对比度增强Contrast enhancement
c.放大Magnification
d.高斯噪声Gaussian noise
e.随机平移
Random translation
f.水平镜像Horizontal mirror
g.缩小Shrink
h.随机旋转Random rotation
i.垂直镜像Vertical mirror
图2数据增强
Fig.2Data enhancement
本研究使用MATLAB自带的图像标注工具Image Labeler对数据集进行ROI标注,黄蚜虫用橘黄方框标注,标签名设置为aphid1,绿蚜虫用蓝方框标注,标签名设置为aphid2。标注时真实框(Ground trurh)为蚜虫的最小外接矩形框,以减少真实框内额外像素的面积,数据集标注如图3所示。标注好的数据集按照比例7:3划分为训练集、验证集,数据量分别为1833张、786张。其中,训练集主要用来训练网络中的参数,验证集用来评估模型的性能[19]。
图3数据集标注
Fig.3Dataset annotation
2模型构建
2.1YOLO网络模型
YOLO系列网络是由Redmon J等[20]在2015年提出的一种端到端的单阶段目标检测网络,与之前以Faster R-CNN区域检测模型为代表的两阶段网络不同,YOLO网络直接将带分类的目标检测问题视为回归问题,加快了检测速度且能将目标和背景更好地区分开。该模型利用特征提取网络自动
第5期邹玮等:基于YOLO v2的辣椒叶部蚜虫图像识别·703·提取前景目标特征,最后通过检测网络预测目标类别和边框位置如图4所示。
图4YOLO网络检测流程图
Fig.4Flow chart of YOLO network detection
本研究选用YOLO v2作为分类检测网络,综合考虑时间和检测精度因素,在精度均满足条件的情况下,较高级的YOLO模型训练时间较长,对计算机的性能要求更高。YOLO v2网络相对于原始YOLO网络而言,对网络模型结构进行了相应改进,提升了网络检测性能,能够适应本试验要求。与之前的网络相比,做出的改进如下:
(1)加入了Batch Normalization(批归一化)层[21],可以把每个神经元的输出限制在以0为均值,标准差为1的分布里,加快神经网络收敛速度,起到正则化作用,防止模型过拟合。
(2)提高了图像分辨率。YOLO v2在预训练网络进行特征提取时使用ImageNet数据集初始化网络参数,此时图像分辨率为224×224,为提高网络检测精度,在训练检测网络时,将输入图像分辨率调整为448×448,这一操作将网络的精度整体提升了约3.5%。
(3)加入了Anchor机制。事先给定B个长、宽大小不一的先验参考框,每个Anchor对应一个预测框,预测框只需要预测它对应的Anchor的偏移量。原始YOLO网络中B设置为2,而YOLO v2网络可以增加预测框数量。
(4)利用K-means聚类选定先验参考框尺寸。在ROI标注的数据集上用K-means聚类自动选择先验框长宽比,这种方式比Faster R-CNN网络中用手动设置更加科学,能够尽可能覆盖所有目标。不同的聚类个数对应不同的IOU,个数越多覆盖的IOU越大,但相应模型的复杂度也会大大增加。
2.2模型主干网络Resnet50
目前,Resnet网络主要有Resnet18、Resnet34、Resnet50、Resnet101和Resnet152,随着Resnet 网络层数不断加深,卷积核尺寸减小、数量增多,模型参数量增加,从而导致训练过程计算量增大且容易出现梯度消失现象,但小卷积核提取的语义信息更加全面。考虑到本研究图像目标特征较为简单,因此选择Resnet50作为特征提取网络。
Resnet50[22]主要包含三种基本结构:独立卷积结构、卷积残差结构、平均池化和全连接结构。其中卷积残差结构通过跳跃连接、恒等映射将浅层特征与深层特征融合,有效解决了梯度弥散等问题,残差网络结构如图5所示。在特征提取网络中引入残差结构能够保留更多蚜虫特征信息,可以进一步提高模型检测性能。
图5残差网络结构示意图
Fig.5Residual network structure diagram
·704·山东农业大学学报(自然科学版)第54卷
2.3基于改进的辣椒蚜虫检测模型架构
本研究以Resnet50在数据集ImageNet上进行测试的预训练网络为起点,通过迁移学习来微调网络参数,即利用预训练网络Resnet50提取辣椒叶片上蚜虫的图像特征,再使用学习到的图像特征训练分类器。Resnet提出以前,普遍认为网络的深度越深,提取到的特征越抽象,模型的检测效果越好。在实际训练过程中,发现网络层数越深,就会出现梯度消失和模型退化等问题,从而导致模型的学习能力下降,检测准确率也会降低,甚至出现不能检出目标的情况。为进一步验证不同深度网络模型对辣椒叶片上蚜虫的识别性能,特征提取模块分别选用Resnet50前10、16、22、28、34、42层卷积网络,去掉最后的平均池化层和全连接层,分类检测模块采用YOLO v2网络结构,构成辣椒蚜虫检测模型,模型整体框架如图6所示。将这六个模型分别叫做Resnet-10、Resnet-16、Resnet-22、Resnet-28、Resnet-34、Resnet-42,Resnet50卷积结构与YOLO v2网络相融合的位置在图中分别用红、蓝、绿、粉、紫和黄箭头位置表示。
图6辣椒蚜虫检测模型框架
Fig.6Model framework for pepper aphids detection
2.4预测框生成算法
YOLO v2网络中加入Anchor机制,为选择最具代表性的候选框,使用K-means聚类算法,选出适合实际问题的候选框数量和尺寸。K-means聚类的相似度检测通常用欧式距离进行度量,对YOLO v2来说,候选框尺寸的衡量标准为IOU,所以YOLO v2利用IOU来计算距离,公式如下:D(box,centroid)=1-IOU(box,centroid)(1)在使用K-means聚类方法时需要人为指定聚类数K,针对本研究中要检测识别辣椒叶片上蚜虫类型的问题,需要在ROI标注蚜虫的数据集上进行K-means聚类,以得到适合图像中标
注蚜虫的anchor box尺寸和数量。聚类结果如图7所示,当K<5时,AvgIOU随K值增加而增大,当K>5时,AvgIOU随K值增加而上下浮动。AvgIOU表示辣椒蚜虫数据集上预测的anchor box与实际标注框覆盖度的平均值,设置不同聚类数K对应不同地AvgIOU,AvgIOU值越大说明预测框对蚜虫位置、尺寸预测越准确,但K值越大则anchor box数量越多,会导致模型复杂度增加,因此本研究将anchor box 个数设置为5。
图7K-means聚类结果
Fig.7K-means clustering results

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。