[发明专利]一种基于计算机视觉的快递暴力分拣识别方法有效
申请号: | 201710043834.4 | 申请日: | 2017-01-19 |
公开(公告)号: | CN106897670B | 公开(公告)日: | 2020-09-22 |
发明(设计)人: | 陈松乐;孙知信;胡冰 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 南京知识律师事务所 32207 | 代理人: | 李湘群 |
地址: | 210003 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 计算机 视觉 快递 暴力 分拣 识别 方法 | ||
本发明公开了一种基于计算机视觉的快递暴力分拣识别方法,该方法包括以下步骤:基于深度摄像机的姿态估计:把人体姿势估计问题转换为对深度摄像机捕获到的深度图像像素进行分类的问题,通过使用随机森林的方法得到人体姿态估计;人体三维姿态相对时空特征提取:提取三维姿态中关节形成的点、线、面几何元素之间的相对空间位置及其变化的度量作为姿态的特征表示;基于递归神经网络的暴力分拣识别:通过长短时记忆型模型LSTM对时间上连续的从人体三维姿态中提取的姿态时空相对特征进行建模训练,从而实现对快递暴力分拣行为的识别。
技术领域
本发明属于计算机视觉以及模式识别技术领域,涉及一种基于计算机视觉的快递暴力分拣识别方法。
背景技术
随着电子商务、网络购物等新型服务业对快递服务的需求不断增加,我国快递行业呈现出高速发展的态势,快递已经成为联系亿万商家和广大人民群众的民生服务,在推动流通方式转型、促进消费升级中发挥着越来越重要的作用。与前几年相比,我国快递行业的服务质量以及分拣效率在不断提高,但“暴力分拣”等行业顽疾依然层出不穷。打开必应或者百度搜索,与暴力分拣相关的网页达到了数十万条,扔摔踩抛踢等“暴力分拣”乱象不仅损害了消费者和电商的利益,而且也有损快递企业自身的竞争力以及快递业声誉。
视觉摄像机具有覆盖范围大、信息丰富、对环境和用户透明、非侵入的优点,随着硬件水平的不断提高,其成本也在逐步降低。在安全监控、智能交通以及环境检测等领域,摄像机及其网络得到了越来越广泛的应用。为规范分拣操作过程,目前绝大部分的快递企业在分拣场所都安装了摄像机系统,并主要依靠人工对视频图像进行辨别和监视以检测是否存在着暴力分拣等行为。然而,单纯依靠人对大量的视频数据进行分析不仅需要大量的人力物力,而且人工很难长时间对大量的视频图像进行实时监控,从而造成报警准确度低、漏报率和误报率高、报警周期长、视频数据难分析等弊端。
为了克服人工辨别与检测的弊端,实现对快递暴力分拣行为的自动、智能识别,尚淑玲在文献《尚淑玲,基于计算机视觉的物流暴力分拣行为识别[J],计算机仿真,2013,30(12):430-433.》中提出了一种基于计算机视觉的方法,该方法利用小波包分析方法,对采集的物流分拣图像行为特征进行提取,从而为物流暴力分拣识别提供相似性判断基础,当待分类图片和暴力分拣图片特征的欧式距离小于指定的阈值时,则判断该图片中存在暴力分拣行为。然而,该方法仅仅对单张图片进行判断,提取的特征也没有利用到连续的视频帧,而暴力分拣动作是由连续的帧构成的一段运动,因此该方法存在着明显的局限性。
快递暴力分拣动作是人体运动的一种特殊形式,基于计算机视觉的快递暴力分拣识别属于机器视觉人体运动分析领域,包含人体检测、目标分类和跟踪、动作识别和高层行为理解等内容。事实上,基于计算机的人体运动分析一直是计算机视觉领域中最活跃的研究主题之一,基于视觉的快递暴力分拣识别的核心问题是如何利用计算机视觉技术对操作人员的分拣图像序列进行分析,识别出人的动作,通过连续的跟踪并结合上下文环境对其分拣行为的规范性进行推理和描述。根据文献《Moeslund T B,Hilton A,Krüger V.Asurvey of advances in vision-based human motion capture and analysis[J].Computer vision and image understanding,2006,104(2):90-126.》,人体动作行为识别可以从总体上分为特征提取和分类识别两个过程。特征提取是在视频数据中提取能够表征视频内容关键信息的特征,在提取了区分性特征后,则可以采用SVM、随机森林等分类学习算法建立识别模型,并对新数据中的人体行为类别进行标记。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710043834.4/2.html,转载请声明来源钻瓜专利网。