[发明专利]一种基于生成对抗网络的库位状态检测方法及系统、存储介质有效
申请号: | 202310277991.7 | 申请日: | 2023-03-21 |
公开(公告)号: | CN115984285B | 公开(公告)日: | 2023-07-04 |
发明(设计)人: | 陈忠伟;石岩;李华伟;赵越 | 申请(专利权)人: | 上海仙工智能科技有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/70;G06N3/0475;G06N3/0464;G06N3/094 |
代理公司: | 北京中济纬天专利代理有限公司 11429 | 代理人: | 季永康 |
地址: | 201206 上海市浦*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 生成 对抗 网络 状态 检测 方法 系统 存储 介质 | ||
本发明提供了一种基于生成对抗网络的库位状态检测方法及系统、存储介质,其中方法步骤包括:采集库位空置及占用状态下的多张图片,分别定义为正、负样本;将正样本作为输入来训练GANomaly对抗网络,直至正样本与其重构图相似度达成预期目标,将库位当前真实图输入训练后的GANomaly对抗网络,获取重构图后进行后处理,以获取比较值;根据正、负样本在训练后的GANomaly对抗网络中所生成的对应重构图之间的差值边界定义出库位状态判断值;将比较值与 进行比较,以判断出对应的库位状态反馈,籍此实现基于对抗网络来判断库位状态,以降低制作训练集及训练的要求,并提高检测适应性。
技术领域
本发明涉及图像检测技术,尤其涉及一种基于GANomaly生成对抗网络以检测库位状态是否空置的检测方法及检测系统。
背景技术
仓库库位状态判断,在工业物流自动化领域有着广泛的应用价值,例如在仓库堆放区域,需要判断库位区域内是否存在货物后,才能通过调度系统指挥无人叉车进行取货放货操作。因此如何准确判断仓库库位状态的变化,对于自动化仓储管理至关重要。
目前现有技术主要通过识别货物在图像中的位置,结合划定的库位区域进行计算判断库位的状态。例如现有技术提供了一种库位检测方法和系统(中国专利申请号202210381020.2)其中,该库位检测系统包括安装在待检测库位区域上方一定高度的至少一个相机,至少一个相机的视野覆盖整个库位区域,用于采集库位区域的实时图像,库位区域包括若干库位,该方法包括:对至少一个相机采集到的实时图像进行拼接处理,以得到待检测库位区域的全局地图;基于深度学习框架训练待检测库位区域的目标识别模型;根据全局地图,通过训练后的目标检测模型对实时图像进行识别,以得到库位区域中各库位的状态信息和位置信息。
然而此类采用深度学习框架的目标检测技术在构思上,是为了得出一个库位是否被空置/占用的概率预测,因此在训练时,必然需要同时学习库位空置及占用两种状态下的各个视角、不同式样的样本图,因此在制作训练集及训练方面存在较高要求。
其次在检测适应性方面,现有目标检测技术,当面对库位上出现新种类的货物占位时,可能需要重新采集新种类货物的样本制作训练集,以训练更新模型,因此检测适应性较弱。
发明内容
为此本发明的主要目的在于提供一种基于生成对抗网络的库位状态检测方法及系统,以实现基于对抗网络来判断库位状态,以此降低制作训练集及训练的要求,并提高检测适应性。
为了实现上述目的,根据本发明的第一个方面,提供了一种基于生成对抗网络的库位状态检测方法,其步骤包括:
步骤S100,采集库位空置及占用状态下的多张图片,分别定义为正、负样本;
步骤S200,将正样本作为输入来训练GANomaly对抗网络,直至确保正样本与其重构图相似度达成预期目标;
步骤S300,将库位当前真实图输入训练后的GANomaly对抗网络,获取重构图后进行后处理,以获取比较值;根据正、负样本在训练后的GANomaly对抗网络中所生成的对应重构图之间的差值边界定义出库位状态判断值;将比较值与进行比较,以判断出对应的库位状态反馈。
在可能的优选实施方式中,所述步骤S300中,重构图的后处理步骤包括:获取对应重构图后与真实图进行差值计算,然后对差值计算后的重构图进行灰值化及自适应阈值二值化处理,之后再进行求和统计,以获取比较值,
在可能的优选实施方式中,所述步骤S300中:库位状态判断值
,其中为各正样本与其重构图之间的最大差异值,为各负样本与其重构图之间的最小差异值,其中alpha为阈值靠近上下边界的程度,其取值区间为[0.1,0.9]。
在可能的优选实施方式中,所述步骤S300中:
;
;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海仙工智能科技有限公司,未经上海仙工智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310277991.7/2.html,转载请声明来源钻瓜专利网。