[发明专利]一种基于高精度哈希图像检索技术的行人检测方法及系统在审
申请号: | 201910247002.3 | 申请日: | 2019-03-29 |
公开(公告)号: | CN109948585A | 公开(公告)日: | 2019-06-28 |
发明(设计)人: | 焦宏哲;魏斯玮;傅稼润;王春枝;严灵毓;叶志伟 | 申请(专利权)人: | 湖北工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06F16/51 |
代理公司: | 北京金智普华知识产权代理有限公司 11401 | 代理人: | 杨采良 |
地址: | 430068 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 哈希 图像检索技术 目标函数 行人检测 哈希码 隐藏层 最小化 算法 人工神经网络ANN 语义 对象搜索 哈希函数 机器学习 图像检索 相似矩阵 训练函数 端到端 全面性 准确率 权重 学习 标签 图像 创建 | ||
本发明属于图像检索技术领域,公开了一种基于高精度哈希图像检索技术的行人检测方法及系统,对于提取的行人图像采用机器学习创建目标函数,进行目标最小化,得到临阶相似矩阵,再采用ILS算法进一步最小化目标函数,得到精确的哈希码;得到精确的哈希码后,采用端到端哈希深度学习方法学习哈希函数,并根据人工神经网络ANN的隐藏层中不同节点的不同权重对输入进行调整;在CNNs后,选择单隐藏层MLP学习hash标签;最后生成的训练函数本发明减少了识别误差与语义损失,提高了对象搜索的准确性和全面性;利用高精度的哈希图像检索算法提高了识别准确率以及识别速率。
技术领域
本发明属于图像检索技术领域,尤其涉及一种基于高精度哈希图像检索技 术的行人检测方法及系统。
背景技术
目前,最接近的现有技术:
基于区域提案的神经网络是一种将区域建议和卷积神经网络相结合的目标 检测算法,比如RCNN,SPP-net,Fast,RCNN,FasterRCNN,RFCN等,通常采 用区域选择或者区域提案网络获取感兴区域,然后在每个提案区域上使用卷积 神经网路做分类得到分类类别和置信度。这种提案方法大大提升了行人检测精 度,但是检测速度有待提升,较难满足行人检测中的高效率检测要求。
端到端的深度学习行人检测采用使用单通道网络架构,比如YOLO,SSD, YOLOv2[3】等,将行人定位和行人识别统一,一次性输出行人的位置信息和行 人的置信度,这样大大提升的网络的执行效率,但是检精度较低有待提升。
所以现阶段行人检测的所采用的深度学习网络总是之具备其中一种特性, 要么速度快但是精度较低,要么精度高但是速度太慢。本发明采用了深度学习 领域新型算法HPSLH,意图同时解决两种问题。
综上所述,现有技术存在的问题是:
(1)现阶段行人检测的所采用的深度学习网络总是只具备其中一种特性, 要么速度快但是精度较低,要么精度高但是速度太慢,使得如果现有检测系统采 用其中一种网络,如采用速度快但精度低的网络,在日后的改进中就无法具备 高精度的优点,反之亦然,这使得行人检测系统必然存在无法改进的缺陷这。
(2)现有行人检测技术难以相互贯通。由第一点看到由于不同的神经网络 特性并不相同,所以很难将不同的网络体系结合在一起,也就意味着行人监测 系统难以相互融合各自的优点进而得到改进。
解决上述技术问题的难度:
现有行人检测的难点有:
外观差异大。包括视角,姿态,服饰和附着物,光照,成像距离等。从不 同的角度看过去,行人的外观是很不一样的。处于不同姿态的行人,外观差异 也很大。由于人穿的衣服不同,以及打伞、戴帽子、戴围巾、提行李等附着物 的影响,外观差异也非常大。光照的差异也导致了一些困难。远距离的人体和 近距离的人体,在外观上差别也非常大。
检测速度。行人检测一般采用了复杂的模型,运算量相当大,要达到实时 非常困难,一般需要大量的优化。
检测精度较低。就算可以获取清晰的图像,也可能得到低精度的检测结果。
难以融合不同算法的优点。由于网络架构千奇百怪,所以很难将两种不同 的网络架构结合在一起,很难融合不同算法的优点。
由于HPSLH算法相对于其他算法来说,其作为检索标签所应用的哈希码更 为精准,针对细节的识别更为准确。由于行人检测中人的外观差异巨大,所以 更需要细节方面的把握。由此可以解决最主要的问题。并且此算法应用预创建 标签库的方法,所以检测速度方面也有相应提高。
解决上述技术问题的意义:
由此,采用HPSLH可以解决以上行人检测领域的传统难题。
采用预生成标签的方式,杜绝外观差异大的影响。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北工业大学,未经湖北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910247002.3/2.html,转载请声明来源钻瓜专利网。