(19)中华人民共和国国家知识产权局
(12)发明专利说明书
(10)申请公布号 CN 107301380 A
(43)申请公布日 2017.10.27
(21)申请号 CN201710403300.8
(22)申请日 2017.06.01
(71)申请人 华南理工大学
    地址 510640 广东省广州市天河区五山路381号
(72)发明人 张见威 邱隆庆 林文钊
(74)专利代理机构 广州市华学知识产权代理有限公司
    代理人 罗观祥
(51)Int.CI
     
                                                                  权利要求说明书 说明书 幅图
(54)发明名称
      一种用于视频监控场景中行人重识别的方法
(57)摘要
      本发明公开了一种用于视频监控场景中行人重识别的方法,通过如下步骤实现:S1、预训练FT‑FNN网络;S2、微调FT‑FNN网络;S3、提取训练图像深度特征和属性特征;S4、优化属性权重、S5、提取待识别图像属性特征;S6、提取行人库属性特征;S7、生成距离矩阵;S8、按序输出匹配图像。经过行人属性识别微调后的深度特征对行人重识别具有较强的区分能力;中层语义属性较低层纹理、颜等视觉特征稳定,不易因光照、姿势的变化而产生较大变动;手动低层视觉特征的融入,能一定程度改善深度特征的区分能力,同时提高部分与颜纹理紧密相关的中层属性的准确率。本发明结合了上述三者,在行人重识别领域取得了较好的准确率。
法律状态
法律状态公告日
法律状态信息
法律状态
权 利 要 求 说 明 书
1.一种用于视频监控场景中行人重识别的方法,其特征在于,所示方法包括下列步骤:
S1、预训练FT-FNN网络,将FT-FNN网络在ImageNet数据集上进行预训练,使FT-FNN网络获取理想的初始值;
S2、微调FT-FNN网络,将FT-FNN网络的输出层替换为节点与属性个数一致的全连接层,实现行人属性数据集微调,识别行人的包括中层语义属性在内的不同属性;
S3、提取训练图像深度特征和属性特征,将训练集图像输入到训练好的FT-FNN网络中,取其融合层的输出作为深度特征,输出层的输出作为属性特征;
S4、优化属性权重,利用随机梯度下降算法求解设计的目标函数,求得各属性的相对权重,得到权重向量;同时
取得深度特征与属性特征的相对权重;
S5、提取待识别图像属性特征,将待识别图像输入到FT-FNN网络中,通过输出层与融合层的输出分别得到待识别图像的深度特征和属性特征;
S6、提取行人库属性特征,将行人库图像输入到FT-FNN网络中,通过输出层与融合层的输出分别得到待识别图像的深度特征和属性特征;
S7、生成距离矩阵,根据属性特征及权值,计算每一幅待识别图像与行人库中每一幅图像之间的距离,得到距离矩阵;
S8、按序输出匹配图像,将结果由近到远排序,并输出匹配图像。
2.根据权利要求1所述的一种用于视频监控场景中行人重识别的方法,其特征在于,所述步骤S1预训练FT-FNN网络中,引入数据增强、dropout机制,将FT-FNN网络输出层节点调整为与数据集的物体类别个数一致之后,将FT-FNN网络在ImageNet数据集上进行预训练。
3.根据权利要求1所述的一种用于视频监控场景中行人重识别的方法,其特征在于,所述步骤S2微调FT-FNN网络中,行人属性数据集微调通过加权交叉熵损失削弱属性不平衡的影响:
  <mrow>
    <msup>
      <mi>L</mi>
      <mi>g</mi>
    </msup>
    <mo>=</mo>
    <mo>-</mo>
    <mfrac>
      <mn>1</mn>
      <msub>
        <mi>N</mi>
正则匹配多行
        <mi>g</mi>
      </msub>
    </mfrac>
    <munderover>
      <mo>Σ</mo>
      <mrow>

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。