[发明专利]一种基于yolov5行人检测算法减少行人误检测率的方法有效
申请号: | 202110652249.0 | 申请日: | 2021-06-11 |
公开(公告)号: | CN113392754B | 公开(公告)日: | 2022-06-28 |
发明(设计)人: | 蔡毅 | 申请(专利权)人: | 成都掌中全景信息技术有限公司 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V20/40;G06V10/764;G06K9/62 |
代理公司: | 成都乐易联创专利代理有限公司 51269 | 代理人: | 张锐 |
地址: | 610000 四川省成都市高*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 yolov5 行人 检测 算法 减少 方法 | ||
本发明公开了一种基于yolov5行人检测算法减少行人误检测率的方法,包括(1)获取数据,数据包括图像信息、日期信息和时间信息;(2)加载yolov5行人检测的阈值;(3)利用yolov5行人检测算法进行行人检测并获图像信息的所有行人结果;(4)根据组合过滤方法过滤掉不符合要求的结果;(5)根据结果获取对应的结果图像信息,并过滤小于距离阈值的结果图像信息;(6)连续3次检测到行人为有效检测;(7)从结果图像信息中过滤掉上一次报警信息重复的信息;(8)结果图像信息再次检测并过滤,过滤掉后剩余的结果图像信息为有效结果,并对有效结果进行报警,同时更新报警时间和报警结果图像信息。本发明减少了误检告警几率,减轻安防人员的工作量。
技术领域
本发明涉及智能安防领域,特别涉及基于yolov5行人检测算法和二分类算法的基础上采用多种方法组合使用来减少视频流图像中指定区域内行人误检测率的方法。
背景技术
行人检测技术是在输入图片或视频帧中判断是否行人,如果有,那么将行人的位置标注出来。这项技术被广泛应用在智能安防领域。传统安防在不需要人为干预的情况下,系统能自动实现对监控画面中的异常情况进行检测、在有异常时能及时报警。
但现有技术在复杂多变的实际应用场景中,会将树、猫、狗、鸟、灯柱等物体在某些环境下误检为行人,并且误检的概率较高;还经常出现对同一个误检目标进行重复报警,从而降低安防人员对告警的敏感性处理。
发明内容
本发明的目的在于提供一种基于yolov5行人检测算法和二分类算法的基础上采用多种方法组合使用来减少视频流图像中指定区域内行人误检测率的方法,该方法将yolov5行人检测算法与其他多重过滤组合使用,可使行人检测的误检概率明显降低。
为实现上述目的,本发明采用如下技术方案:
一种基于yolov5行人检测算法减少行人误检测率的方法,包括如下步骤:
(1)获取数据,数据包括从视频流实时获取的当前帧的图像信息、以及实时获取的日期信息和时间信息;
(2)根据获取的日期信息和时间信息加载对应的yolov5行人检测的阈值;
(3)利用yolov5行人检测算法对获取的当前帧的图像信息进行行人检测并获图像信息的所有行人结果;
(4)首先利用步骤(2)的yolov5行人检测的阈值过滤掉步骤(3)的所有行人结果中超过阈值的结果,然后根据所有行人结果的尺寸过滤掉尺寸过小的结果,最后与预先设置排出框进行比较,过滤掉与排出框重合率大于排出框阈值的结果;
(5)根据步骤(4)中过滤掉后剩余的结果的位置尺寸信息,从帧图像信息中获取对应的结果图像信息,并将结果图像信息进行预处理;并将预处理后与误报数据库中所有特征数据进行欧式距离计算,并过滤掉小于预先设置距离阈值的结果图像信息;
(6)针对同一视频流设置一个检测结果队列,将过滤掉无效结果的结果图像信息按照时间序列排列到检测结果队列中,当连续3次检测到行人结果则判断为有效检测,否者为无效检测结果;
(7)将步骤(6)判断为有效检测的结果图像信息的时间信息与上一次报警时间进行比较,过滤掉小于预先设定的时间阈值的结果图像信息;以及将结果图像信息与上一次报警结果图像信息比较,过滤重叠率大于报警重叠率阈值的结果图像信息;
(8)针对步骤(7)过滤掉后剩余的结果图像信息采用二分类算法再次检测,过滤掉二分类算法检测结果小于预先设定的二分类阈值的结果图像信息,过滤掉后剩余的结果图像信息为有效结果,并对有效结果进行报警,同时更新报警时间和报警结果图像信息。
进一步地,步骤(4)中过滤掉尺寸过小的结果是指过滤掉尺寸小于20×20像素的结果。
进一步地,步骤(4)中所述排出框阈值为60%。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都掌中全景信息技术有限公司,未经成都掌中全景信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110652249.0/2.html,转载请声明来源钻瓜专利网。