[发明专利]生成图像检测模型的方法和装置在审
申请号: | 201810734679.5 | 申请日: | 2018-07-06 |
公开(公告)号: | CN108985208A | 公开(公告)日: | 2018-12-11 |
发明(设计)人: | 徐珍琦;朱延东;王长虎 | 申请(专利权)人: | 北京字节跳动网络技术有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 王达佐;马晓亚 |
地址: | 100041 北京市石景山区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 训练样本集合 样本图像 训练样本 检测 方法和装置 类别图像 生成图像 标注信息 机器学习 人体部位 截取 准确率 预设 图像 申请 | ||
1.一种生成图像检测模型的方法,包括:
获取第一训练样本集合,训练样本包括样本图像和用于表征样本图像是否为第一类别图像的标注信息;
对于所述第一训练样本集合中的训练样本,截取该训练样本的样本图像中包括的预设人体部位的图像,得到新的样本图像;
将得到的新的样本图像和新的样本图像的标注信息作为新的训练样本添加到所述第一训练样本集合,得到新的第一训练样本集合;
将所述新的第一训练样本集合中的训练样本的样本图像作为输入,将与输入的样本图像对应的标注信息作为期望输出,利用机器学习的方法,训练得到第一类别图像检测模型。
2.根据权利要求1所述的方法,其中,所述截取该训练样本的样本图像中包括的预设人体部位的图像,得到新的样本图像,包括:
将该样本图像输入预先训练的人体部位检测模型,得到检测结果信息,所述检测结果信息包括该样本图像中包括的预设人体部位的图像的位置信息,其中,所述人体部位检测模型用于表征图像和图像中包括的预设人体部位的图像的位置信息的对应关系;基于所述位置信息对该样本图像进行截取,得到新的样本图像。
3.根据权利要求2所述的方法,其中,所述检测结果信息还包括:该样本图像中包括的预设人体部位的图像中显示的预设人体部位的类别信息和置信度。
4.根据权利要求3所述的方法,其中,所述基于得到的位置信息对该样本图像进行截取,得到新的样本图像,包括:
按照置信度由大到小的顺序,基于得到的位置信息,从该样本图像中截取预设数量的预设人体部位的图像,以及将截取的预设人体部位的图像作为新的样本图像。
5.根据权利要求2-4中任一所述的方法,其中,所述人体部位检测模型通过以下步骤训练得到:
获取第二训练样本集合,训练样本包括样本图像和样本图像的标注信息,其中,标注信息包括样本图像中包含的预设人体部位的图像的位置信息和样本图像中显示的预设人体部位的类别信息;
将所述第二训练样本集合中的训练样本的样本图像作为输入,将与输入的样本图像对应的标注信息作为期望输出,训练得到人体部位检测模型。
6.一种图像检测方法,包括:
获取待检测图像;
将所述待检测图像输入第一类别图像检测模型,得到用于表征所述待检测图像是否为第一类别图像的检测结果信息,其中,所述第一类别图像检测模型是按照如权利要求1-5之一所述的方法生成的。
7.一种生成图像检测模型的装置,包括:
第一训练样本集合获取单元,被配置成获取第一训练样本集合,训练样本包括样本图像和用于表征样本图像是否为第一类别图像的标注信息;
截取单元,被配置成对于所述第一训练样本集合中的训练样本,截取该训练样本的样本图像中包括的预设人体部位的图像,得到新的样本图像;
样本添加单元,被配置成将得到的新的样本图像和新的样本图像的标注信息作为新的训练样本添加到所述第一训练样本集合,得到新的第一训练样本集合;
训练单元,被配置成将所述新的第一训练样本集合中的训练样本的样本图像作为输入,将与输入的样本图像对应的标注信息作为期望输出,利用机器学习的方法,训练得到第一类别图像检测模型。
8.根据权利要求7所述的装置,其中,所述样本添加单元进一步被配置成:
将该样本图像输入预先训练的人体部位检测模型,得到检测结果信息,所述检测结果信息包括该样本图像中包括的预设人体部位的图像的位置信息,其中,所述人体部位检测模型用于表征图像和图像中包括的预设人体部位的图像的位置信息的对应关系;基于所述位置信息对该样本图像进行截取,得到新的样本图像。
9.根据权利要求8所述的装置,其中,所述检测结果信息还包括:
该样本图像中包括的预设人体部位的图像中显示的预设人体部位的类别信息和置信度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京字节跳动网络技术有限公司,未经北京字节跳动网络技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810734679.5/1.html,转载请声明来源钻瓜专利网。