[发明专利]瑕疵检测方法、瑕疵分类方法及其系统在审
申请号: | 202010941306.2 | 申请日: | 2020-09-09 |
公开(公告)号: | CN114226262A | 公开(公告)日: | 2022-03-25 |
发明(设计)人: | 林晏全 | 申请(专利权)人: | 宜谷京科技实业有限公司 |
主分类号: | B07C5/02 | 分类号: | B07C5/02;B07C5/342;B07C5/36 |
代理公司: | 北京律和信知识产权代理事务所(普通合伙) 11446 | 代理人: | 谢清萍;刘国伟 |
地址: | 中国台*** | 国省代码: | 台湾;71 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 瑕疵 检测 方法 分类 及其 系统 | ||
一种瑕疵检测方法、瑕疵分类方法及其系统,系统通过一或多个摄影机取得多个合格品的影像,以一计算装置接收合格品的影像后,执行一机器学习法,学习合格品的影像特征,建立用以描述合格品影像特征的一合格品模型,当取得一待测物的影像后,可应用此合格品模型取得待测物的瑕疵数据,根据系统设定的检测参数,对照待测物的影像中的瑕疵数据,可判断待测物是否为一瑕疵品。接着,各项瑕疵数据经确认为瑕疵,执行一深度学习法,以分类瑕疵。
技术领域
本申请公开一种瑕疵检测方法,特别是一种从合格品学习出的影像特征进行瑕疵检测与瑕疵分类的方法与系统。
背景技术
随着计算机与学习算法技术的发展,在工业制造产业中,除了通过人手或人眼判断物品瑕疵外,利用计算机学习影像并识别物品瑕疵的技术因应而生,利用软件方法能更有效率地执行瑕疵判断。然而,以目前技术来看,以影像识别技术来检测产品的瑕疵,除了需要收集大量的影像外,还有无法收集到完整的瑕疵图像而导致机器学习效果不彰的问题。
另外,在机器学习的技术中,利用深度学习算法可以从大量取得的样品影像中学习得出瑕疵判断的模型。然而,要得出能有效判断瑕疵的模型,需要收集各种种类的瑕疵影像,例如,学习过程中须标记每个瑕疵位置,再执行软件学习,操作繁杂且费时,仍需要投入大量的学习与时间成本。进一步地,使用深度学习算法,也有硬件成本高的问题,若学习结果不如预期,还需要重新学习。
发明内容
本申请公开一种瑕疵检测方法、瑕疵分类方法及其系统,不同于一般针对瑕疵品学习瑕疵影像特征以判断瑕疵品的方式。根据一实施例:所提出的瑕疵检测系统包括一或多个影像捕获设备,用以取得多个合格品或待测物的影像;设有一计算装置,至少包括处理电路与接口电路,可通过接口电路接收一或多个影像捕获设备拍摄多个合格品或待测物所得出的影像,通过处理电路对这些一或多张影像执行一瑕疵检测方法。
在瑕疵检测方法中,对所取得的多个合格品的多张影像执行一机器学习法,以学习多个合格品中的影像特征,建立用以描述合格品影像特征的一合格品模型。应用此合格品模型套用在待测物影像上,以取得待测物影像中的瑕疵数据,之后根据检测参数,对照待测物影像中的瑕疵数据判断待测物是否为一瑕疵品。
进一步地,待测物的瑕疵数据根据待测物的属性可以包括一或多个瑕疵的位置、面积、颜色、亮度以及形状的其中的一个或任意组合。
如此,待测物的各项瑕疵数据对照检测参数中对于各项瑕疵数据设定的阈值,可以判断待测物是否为一瑕疵品,所判断的瑕疵类型至少包括脏污、缺漏、破损、颜色变化以面积变化。
在一实施例中,当系统取得合格品影像后,可切割为多个区块影像,再以机器学习法学习各区块影像中的合格品影像特征,形成描述合格品影像特征的合格品模型,成为各区块正常分布标准表示,各区块正常分布标准包括各像素的强度、面积与颜色的分布。
根据本申请所提出的瑕疵分类方法实施例,同样先取得多个合格品的多张影像,经执行机器学习法学习多个合格品中的影像特征,建立用以描述合格品影像特征的合格品模型,之后拍摄多个待测物以取得多个待测物的多张影像,可应用合格品模型从这些待测物取得具有瑕疵数据的多张图文件,根据事先定义的瑕疵类别,经执行一深度学习法,可分类影像中的瑕疵,以产生瑕疵类别,建立各分类瑕疵项目。
进一步地,于拍摄待测物影像的步骤中,可以连续拍摄取得待测物多张影像,并能动态定位被测物的位置,精准定位多张影像中的同一个检测区块,以标示其中多个瑕疵位置与特征信息。并且,于定位检测区块时,还能选择固定或任意形状框选检测范围。
进一步地,当取得一或多个瑕疵位置后,可以裁切影像的方式得出多个瑕疵位置区块,使得在后续进行一深度学习法时,可以大幅提升深度学习效率。
之后,取得再一待测物的一或多张影像,应用合格品模型取得待测物的瑕疵数据后,可根据瑕疵类别来分类待测物的瑕疵。
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宜谷京科技实业有限公司,未经宜谷京科技实业有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010941306.2/2.html,转载请声明来源钻瓜专利网。