[发明专利]垃圾分类处理方法及相关产品有效
申请号: | 201911119137.8 | 申请日: | 2019-11-15 |
公开(公告)号: | CN110991271B | 公开(公告)日: | 2023-05-23 |
发明(设计)人: | 田岱 | 申请(专利权)人: | 万翼科技有限公司 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V10/82;G06V10/764;G06V30/148 |
代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 郝传鑫;熊永强 |
地址: | 519000 广东省珠海市横琴新*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 垃圾 分类 处理 方法 相关 产品 | ||
1.一种垃圾分类处理方法,其特征在于,应用于智能垃圾桶,所述智能垃圾桶包括至少一个摄像头,所述方法包括:
在用户投递垃圾时,通过所述至少一个摄像头进行拍摄,得到目标图像;
对所述目标图像进行目标识别,得到所述用户投递的垃圾对应的目标垃圾类型;
确定所述目标垃圾类型对应的目标垃圾装载区域,所述智能垃圾桶包括多个垃圾装载区域,每一垃圾装载区域对应一个垃圾类型;
提示用户将所述垃圾投递到所述目标垃圾装载区域;
检测所述垃圾是否被投递到错误的垃圾装载区域;
在所述垃圾被投递到错误的垃圾装载区域,通过所述智能垃圾桶的机械手臂对所述垃圾进行重新分类;
其中,所述智能垃圾桶还用于:接纳多人投递的垃圾,并对多人投递的垃圾进行分类,具体为:采用多线程或者多进程实现垃圾分类,每一线程或者进程用于处理一个人投递的垃圾;
其中,所述智能垃圾桶包括多个摄像头,所述通过所述至少一个摄像头进行拍摄,得到目标图像,包括:
确定所述多个摄像头中每一摄像头与所述垃圾之间的距离和拍摄角度,得到多个距离值和多个拍摄角度值,每一摄像头对应一个距离值和拍摄角度值;
按照预设的距离与第一评价值之间的映射关系,确定所述多个距离值中每一距离值对应的目标第一评价值,得到多个目标第一评价值;
按照预设的拍摄角度与第二评价值之间的映射关系,确定所述多个拍摄角度值中每一拍摄角度值对应的目标第二评价值,得到多个目标第二评价值;
按照预设的拍摄角度与权值对之间的映射关系,确定所述多个拍摄角度值中每一拍摄角度值对应的目标权值对,得到多个目标权值对,每一所述目标权值对包括目标第一权值和目标第二权值,所述目标第一权值为所述第一评价值对应的权值,所述目标第二权值为所述第二评价值对应的权值,所述目标第一权值与所述目标第二权值之和为1;
依据所述多个目标第一评价值、所述多个目标第二评价值、所述多个目标权值对进行加权运算,得到多个目标评价值,所述多个摄像头中每一摄像头对应一个目标评价值;
控制所述多个目标评价值中的最大值对应的摄像头进行拍摄,得到所述目标图像;
其中,所述对所述目标图像进行目标识别,得到所述用户投递的垃圾对应的目标垃圾类型,包括:
对所述目标图像进行目标提取,得到目标区域;
对所述目标区域进行字符提取,得到多个字符;
确定所述多个字符进行关键字提取,得到多个关键字;
确定所述多个关键字对应的目标物品类型;
按照预设的物品类型与目标垃圾类型之间的映射关系,确定所述目标物品类型对应的所述目标垃圾类型;
其中,所述方法还包括:
在所述多个关键字无法确定物品类型或者所述目标区域不包括字符时,将所述目标区域划分为多个区域;
对所述多个区域中每一区域进行图像质量评价,得到多个图像质量评价值;
从所述多个图像质量评价值中选取大于预设图像质量阈值的图像质量评价值,得到至少一个目标图像质量评价值,并获取该至少一个目标图像质量评价值对应的区域,得到至少一个第一区域;
对所述至少一个第一区域中每一区域进行纹路提取,得到多条纹路;
确定所述多条纹路对应的目标特征参数集;
将所述目标特征参数集输入到预设神经网络模型,得到所述目标物品类型对应的所述目标垃圾类型。
2.根据权利要求1所述的方法,其特征在于,所述确定所述目标垃圾类型对应的目标垃圾装载区域,包括:
按照预设的垃圾类型与垃圾装载区域之间的映射关系,确定所述目标垃圾类型对应的目标垃圾装载区域。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
检测所述多个垃圾装载区域中每一垃圾装载区域的承载量,得到多个承载量;
在所述多个承载量中的任一承载量超过预设阈值时,向管理员发送清理请求信息,所述清理请求信息携带待清理垃圾装载区域的状态信息,所述待清理垃圾装载区域为承载量超过所述预设阈值的垃圾装载区域。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于万翼科技有限公司,未经万翼科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911119137.8/1.html,转载请声明来源钻瓜专利网。