[发明专利]目标检测方法、装置、计算机设备及存储介质在审
申请号: | 202210875967.9 | 申请日: | 2022-07-25 |
公开(公告)号: | CN115410030A | 公开(公告)日: | 2022-11-29 |
发明(设计)人: | 秦兴;胡尊政 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/774;G06V10/80;G06V10/82;G06V10/75;G06N3/04;G06N3/08;G06T3/40 |
代理公司: | 杭州知学知识产权代理事务所(普通合伙) 33356 | 代理人: | 张雯 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 检测 方法 装置 计算机 设备 存储 介质 | ||
本发明实施例公开了目标检测方法、装置、计算机设备及存储介质。所述方法包括:获取指定位置的待检测图像;将所述待检测图像输入至目标检测模型内进行目标检测,以得到检测结果;输出所述检测结果;其中,所述目标检测模型是通过在CenterNet网络的编码网络中加入可变形卷积且在解码网络中加入多特征融合模块形成的。通过实施本发明实施例的方法可实现适应在工厂环境下因为摄像头布置而引发的被检测对象形变能力,做到减少网络结构的计算量和网络参数的同时保证网络结构的鲁棒性。
技术领域
本发明涉及目标检测方法,更具体地说是指目标检测方法、装置、计算机设备及存储介质。
背景技术
目标检测是计算机视觉技术中重要研究方向之一。在现代工业生产中,目标检测技术有着非常广阔的应用前景。实际的生产生活中,工业目标检测目前大部分依靠人眼识别,也有许多通过模板匹配的方法来进行检测,但是人工检测成本和误检率高,模板匹配难于适应复杂照明和多分类小目标的任务场景,比如猪场的死猪事件检测。
现有技术采用CenterNet进行死猪目标检测,相比于YOLO、SSD等依靠Anchor来进行检测的网络,CenterNet是一种Anchor Free的网络,与R-CNN等网络相比,CenterNet不需要区域建议以及ROI等组件,所以CenterNet在速度和精度上都有提升。CenterNet网络分别是由编码网络、解码网络和检测网络三个编码网络组成,CenterNet对图像特征的提取依靠编码网络进行实现,它将生成的高语义特征图从编码网络中送入到解码网络,在解码网络中使用高斯核算法生成含有目标中心点数据信息的热力图,然后根据中心点的数据信息对目标的长宽高属性进行回归,最后通过检测网络进行预测;但是现有的目标检测方法并不能适应在工厂环境下因为摄像头布置而引发的被检测对象形变能力,也无法做到减少网络结构的计算量和网络参数的同时保证网络结构的鲁棒性。
因此,有必要设计一种新的方法,实现适应在工厂环境下因为摄像头布置而引发的被检测对象形变能力,做到减少网络结构的计算量和网络参数的同时保证网络结构的鲁棒性。
发明内容
本发明的目的在于克服现有技术的缺陷,提供目标检测方法、装置、计算机设备及存储介质。
为实现上述目的,本发明采用以下技术方案:目标检测方法,包括:
获取指定位置的待检测图像;
将所述待检测图像输入至目标检测模型内进行目标检测,以得到检测结果;
输出所述检测结果;
其中,所述目标检测模型是通过在CenterNet网络的编码网络中加入可变形卷积且在解码网络中加入多特征融合模块形成的。
其进一步技术方案为:所述目标检测模型包括依序连接的编码网络、解码网络以及预测网络,其中,所述编码网络包括卷积层、可变形卷积层和/或DCN模块;所述解码网络包括上采样网络,所述上采样网络包括若干个依序连接的反卷积层;所述预测网络包括用于获取目标中心点的热力图的中心预测自网络、用于获取中心点的偏移量的偏移预测子网络以及获取中心点的宽与高的边框预测子网络。
其进一步技术方案为:所述DCN模块包括带可学习参数的卷积层,通过双线性插值来进行反向传播对DCN模块进行优化。
其进一步技术方案为:所述多特征融合模块用于采用反卷积将高层特征的尺度上采至与低层特征尺度相同的尺寸,并分别按照通道进行连接。
其进一步技术方案为:所述多特征融合模块用于融合底层特征以及高层特征。
其进一步技术方案为:所述多特征融合模块关注每一个通道的特征数据信息,把关注到的特征信息采用全局平均池化生成一个特征向量,且通过学习的方式得出权重向量,与初步融合的特征数据信息进行加权计算,以得出一个融合全局特征图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210875967.9/2.html,转载请声明来源钻瓜专利网。