(19)中华人民共和国国家知识产权局
(12)发明专利申请
(10)申请公布号 (43)申请公布日 (21)申请号 202111394627.6
(22)申请日 2021.11.23
(71)申请人 西安理工大学
地址 710048 陕西省西安市碑林区金花南
路5号
(72)发明人 赵志强 王耀中 黑新宏 何文娟 
赵钦 
(74)专利代理机构 西安弘理专利事务所 61214
代理人 王丹
(51)Int.Cl.
G06V  40/10(2022.01)
G06V  10/774(2022.01)
G06V  10/80(2022.01)
G06V  10/82(2022.01)
G06K  9/62(2022.01)
G06N  3/04(2006.01)G06N  3/08(2006.01)
(54)发明名称基于YOLOv5目标检测模型的安全帽佩戴检测方法(57)摘要本发明公开了基于YOLOv5目标检测模型的安全帽佩戴检测方法,在初始YOLOv5目标检测模型的基础上利用YOLOv5的特征提取部分提取更大尺寸的特征图,在特征融合部分进行特征融合。采用中心损失作为正则化项对YOLOv5目标检测模型中的置信度损失和分类损失进行约束,从而使得改进后的YOLOv5目标检测模型能更为准确的检测出小目标的类别其中更大尺寸的特征图具有较小的感受野,因此更有利于YOLOv5目标检测模型检测
出小目标。本发明所提出的改进后YOLOv5模型在施工场景下安全帽的检测任务中有着优异的表现,一些YOLOv5检测不到的小目标
被改进后YOLOv5所检测到。权利要求书2页  说明书5页  附图1页CN 114170626 A 2022.03.11
C N  114170626
A
1.基于YOLOv5目标检测模型的安全帽佩戴检测方法,其特征在于,
步骤1、获取安全帽检测数据集SHWD,并生成相应的标签文件;将所述数据集划分为训练集,验证集和测试集;
步骤2、将输入图像输入原始YOLOv5目标检测模型,通过原始YOLOv5目标检测模型的特征提取部分提取出四个不同大小的特征图;再将四个不同大小的特征图进行特征融合,最终到了改进后YOLOv5目标检测模型;
正则化的约束条件步骤3、所述改进后YOLOv5目标检测模型的损失函数分为定位损失函数、分类损失函数、置信度损失函数;采用度量学习中的中心损失函数作为正则化项对分类损失和置信度损失进行约束,从而构成一个新
的目标函数;使用随机梯度下降法对该目标函数进行优化,从而达到训练改进后YOLOv5目标检测模型的目的;
步骤4、将所述安全帽检测数据集中的训练集图像输入至步骤3改进后YOLOv5模型进行训练,并保存训练过程中改进后YOLOv5模型在验证集上检测准确率最高时的权重参数,并将该权重文件命名为best.pt;
步骤5、加载步骤4所述权重文件best.pt至改进后YOLOv5目标检测模型中,将测试集中的图像输入改进后YOLOv5目标检测模型,得到该模型在测试集中的检测结果,检测到的结果包含两部分,分别是施工场景中佩戴的安全帽和未佩戴的正常头部。
2.根据权利要求1所述的基于YOLOv5目标检测模型的安全帽佩戴检测方法,其特征在于,步骤1中,所述数据集为图片集,分为头部和安全帽两个类,针对不同类中的图片创建相应的txt标签文件。
3.根据权利要求1所述的基于YOLOv5目标检测模型的安全帽佩戴检测方法,其特征在于,
步骤2中,对YOLOv5的模型结构进行了改进,使得YOLOv5在4种尺度上预测检测目标的边界框;对于输入尺寸为640×640像素大小的输入图像,YOLOv5的特征提取部分从中提取出160×160,80×80,40×40,20×20这四种大小的特征图;在特征融合部分对这四种尺寸大小的特征图进行特征融合;在YO
LOv5模型的检测部分,在每个尺度下都输出一个3维的预测张量;预测张量中编码的信息有:预测框的位置信息、预测框中包含待检测目标的置信度、预测框中包含目标的类别。
设置输出的目标类别分别为正常的未佩戴安全帽的头部和安全帽两类;因此在YOLOv5模型的检测部分中,对于尺度大小为N×N的特征图YOLOv5模型所产生的预测张量的大小为N×N×[4*(1+4+2)],其中4代表改进后的YOLOv5模型预测四个尺度的张量,1代表置信度的预测,4代表预测框位置信息,2代表目标类别为两个类。因此改进后YOLOv5目标检测模型输出的四种尺度的预测张量分大小别为160×160×28,80×80×28,40×40×28和20×20×28。
4.根据权利要求2所述的基于YOLOv5目标检测模型的安全帽佩戴检测方法,其特征在于,
步骤3中,初始YOLOv5目标检测模型的损失函数由定位损失,置信度损失和分类损失三部分组成,表达式为:
其中λ
1为所述定位损失的权重系数,λ
2
为置信度损失的权重系数,λ
3
是分类损失的权重
系数;是为定位损失函数,其表达式为:其中GIoU代表在对目标定位时
目标框和真实框的重合程度;和分别是置信度损失和分类损失,YOLOv5使用
BCELogits(x,y)作为和的损失函数;假设给定的数据集有N个样本x
i
和对
应的标签y
i
,BCELogits(x,y)为:
其中σ(·)是sigmoid函数,其表达式为对于输入x
i ,其输出σ(x
i
)的值域为
(0,1);
在YOLOv5的置信度损失和分类损失后添加中心损失函数作为约束,该函数的表达式
为:对于每一个样本x
i 和相应的类标签y
i
,c
yi
代表类y
i
的中心;在添加
中心损失函数后置信度损失和分类损失的表达式如下:
其中,和分别代表受到中心损失函数约束的置信度损失和分类损失函数,α和β是相应的权重系数;最后将三部分损失函数合并,便得到了改进后YOLOv5的损失函数:
5.根据权利要求3所述的基于YOLOv5目标检测模型的安全帽佩戴检测方法,其特征在于,
步骤4中,将训练集中的输入图像的大小设置为640×640,使用批量大小为8的小批量
随机梯度下降法对损失函数进行优化,初始学习率为0.01,动量值设置为0.937,权重衰减值设置为5e‑4;在训练过程中使用余弦退火的方法来调整学习率,从而加速模型收敛至全局最优;
训练集用于对模型进行训练,验证集则用于对模型的训练情况进行反馈,当模型在验证集上检测的准确率最高时,保存此时模型的权重参数至权重文件best.pt,而测试集则主要用于对训练好的模型进行最终的评估。
6.根据权利要求3所述的基于YOLOv5目标检测模型的安全帽佩戴检测方法,其特征在于,
步骤5中,使用了非极大值抑制方法对测试集中的检测结果进行筛选,其中对于检测到的安全帽,使用绿的框将其框出;对于检测到的头部,使用红的框将其框出。
基于YOLOv5目标检测模型的安全帽佩戴检测方法
技术领域
[0001]本发明属于计算机视觉的目标检测技术领域,具体涉及基于YOLOv5目标检测模型的安全帽佩戴检测方法。
背景技术
[0002]在目前的铁路施工环境中,复杂的施工环境和施工人员的不安全行为很容易引发安全事故,这甚至会威胁施工人员的生命安全。其中施工人员的头部受伤最为致命,这也是造成施工场景中安全事故的主要原因。因此安全帽的佩戴就显得十分必要,同时也是施工行为规范中最基本的要求。但是在实际的作业情况中,常常出现人员未佩戴安全帽的行为。因此为了降低安全隐患,在施工时对人员安全帽佩戴的情况进行检测是十分必要的。[0003]随着计算机视觉技术的不断发展,目标检测领域在工业生产中有着广泛的应用,其中安全帽检测技术就是一个重要的应用领域。早期的基于手工特征的检测算法主要有Viola‑Jonesdetector,HistogramofOrientedGradients(HOG),等。随着卷积神经网络的发展,目标检测算法也转向了基于深度神经网络的检测算法。基于深度神经网络的目标检测算法可以分为两类即,“单阶段”目标检测模型和“双阶段”目标检测模型。其中属于“单阶段”目标检测的模型主要有SSD和YOLO系列。而属于“双阶段”目标检测的模型主要有RCNN,FasterRCNN等。本发明主要基于“单阶段”的YOLOv5模型进行改进对安全帽进行检测。[0004]YOLOv5模型在前代YOLOv4的基础上进行了改进,相较于YOLOv4,YOLOv5有着更快的训练速度,并且YOLOv5s有着更小的模型尺寸,利于模型的快速部署。在进行安全帽检测时,拍摄场景的远近和复杂的施工环境产生了大量的小目标。然而,在实际应用中YOLOv5模型在对于小目标的检测上仍有着一定的欠缺。因此本发明对YOLOv5模型进行改进在保证检测速度的同时提升小目标的检测精度。
发明内容
[0005]本发明的目的在于提供基于YOLOv5目标检测模型的安全帽佩戴检测方法,旨在提升施工场景下小目标的检测能力。
[0006]本发明所采用的技术方案是:基于YOLOv5目标检测模型的安全帽佩戴检测方法,具体操作步骤如下:
[0007]步骤1、获取安全帽检测数据集SHWD,并生成相应的标签文件;将所述数据集划分为训练集,验证集和测试集;所述安全帽检测数据集包括安全帽图像以及安全帽标签文件,所述标签文件包括标注框,标注框的位置信息以及标注框所标注内容的真实类别信息;[0008]步骤2、将输入图像输入原始YOLOv5目标检测模型,通过原始YOLOv5目标检测模型的特征提取部分提取出四个不同大小的特征图;再将四个不同大小的特征图进行特征融合,最终到了改进后YOLOv5目标检测模型;
[0009]步骤3、所述改进后YOLOv5目标检测模型的损失函数分为定位损失函数、分类损失函数、置信度损失函数;采用度量学习中的中心损失函数作为正则化项对分类损失和置信
度损失进行约束,从而构成一个新的目标函数;使用随机梯度下降法对该目标函数进行优化,从而达到训练改进后YOLOv5目标检测模型的目的;
[0010]步骤4、将安全帽检测数据集中的训练集图像输入至步骤3改进后YOLOv5模型进行训练,并保存
训练过程中改进后YOLOv5模型在验证集上检测准确率最高时的权重参数,并将该权重文件命名为best.pt;
[0011]步骤5、加载步骤4所述权重文件best.pt至改进后YOLOv5目标检测模型中,将测试集中的图像输入改进后YOLOv5目标检测模型,得到该模型在测试集中的检测结果,检测到的结果包含两部分,分别是施工场景中佩戴的安全帽和未佩戴的正常头部。
[0012]本发明的特点还在于,
[0013]步骤1的数据集为图片集,分为头部和安全帽两个类,针对不同类中的图片创建相应的txt标签文件。
[0014]步骤2中,对YOLOv5的模型结构进行了改进,使得YOLOv5在4种尺度上预测检测目标的边界框;对于输入尺寸为640×640像素大小的输入图像,YOLOv5的特征提取部分从中提取出160×160,80×80,40×40,20×20这四种大小的特征图;在特征融合部分对这四种尺寸大小的特征图进行特征融合;在YOLOv5模型的检测部分,在每个尺度下都输出一个3维的预测张量;预测张量中编码的信息有:预测框的位置信息、预测框中包含待检测目标的置信度、预测框中包含目标的类别。
[0015]设置输出的目标类别分别为正常的未佩戴安全帽的头部和安全帽两类;因此在YOLOv5模型的检
测部分中,对于尺度大小为N ×N的特征图YOLOv5模型所产生的预测张量的大小为N ×N ×[4*(1+4+2)],其中4代表改进后的YOLOv5模型预测四个尺度的张量,1代表置信度的预测,4代表预测框位置信息,2代表目标类别为两个类。因此改进后YOLOv5目标检测模型输出的四种尺度的预测张量分大小别为160×160×28,80×80×28,40×40×28和20×20×28。
[0016]步骤3中,初始YOLOv5目标检测模型的损失函数由定位损失,置信度损失和分类损失三部分组成,表达式为:
[0017]
[0018]其中λ1为所述定位损失的权重系数,λ2为置信度损失的权重系数,λ3是分类损失的权重系数;是为定位损失函数,其表达式为:
其中GIoU代表在对目标定
位时目标框和真实框的重合程度;和分别是置信度损失和分类损失,YOLOv5使用
BCELogits(x ,y)作为和的损失函数;假设给定的数据集
有N个样本x i 和对应的标签y i ,BCELogits(x ,y)为:
[0019]
[0020]其中σ(·)是sigmoid函数,其表达式为对于输入x i ,其输出σ(x i )的值域为(0,1);
[0021]本发明在YOLOv5的置信度损失和分类损失后添加中心损失函数作为约束,该函数

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。