[发明专利]一种基于3D模型训练YOLO神经网络的方法有效
申请号: | 202010034052.6 | 申请日: | 2020-01-13 |
公开(公告)号: | CN111259950B | 公开(公告)日: | 2022-07-05 |
发明(设计)人: | 周宁宁;杨贤志 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京瑞弘专利商标事务所(普通合伙) 32249 | 代理人: | 彭雄 |
地址: | 210000 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 模型 训练 yolo 神经网络 方法 | ||
本发明公开了一种基于3D模型训练YOLO神经网络的方法,首先、构建待测物体3D模型及场景背景模型并结合形成场景图,随机化物体3D模型的中心点所在坐标、Euler角、纹理参数及场景背景模型,对场景图渲染多次得到原始数据集;其次、由原始数据集中标记五元组中边框界的左上顶点坐标、右下顶点坐标与图像宽高计算得到边界框的中心点坐标、宽、高与图像宽高的相对比例,从而转换得到YOLO神经网络标准数据集;最后,建立所得数据集与YOLO神经网络结合后的损失函数,使用随机梯度下降算法求损失函数近似最小值,得到待检测物体的YOLO目标检测模型,本发明可减少YOLO神经网络数据集获取成本。
技术领域
本发明属于计算机视觉技术领域,具体涉及了一种基于3D模型训练YOLO神经网络的方法。
背景技术
近年来,随着卷积神经网络和深度学习的不断发展,目标检测技术迅猛兴起,目标检测是指能够正确识别图像中的指定物体并能够对其进行定位,由于目标检测技术的实用性和通用性,其应用领域十分广泛。
当今目标检测技术主要基于深度卷积神经网络,目前较流行的一种网络结构是YOLO(You Only Look Once)网络,其特点是检测速度快,检测精度高,训练YOLO神经网络一般需要大量带物体位置标注的图片,所以在应用YOLO神经网络时第一步就是采集和标注大量的包含待检测目标图片,为了保证最后取得的深度学习模型的泛化性,收集数据时需要结合具体应用场景,需要考虑到数据的多样性,导致数据的采集难度增加,此外在标记数据时,则要通过人工一一辨识图片中的物体,效率低下,成本高昂,这也成为了将目标检测技术应用于具体业务时的一大障碍。
发明内容
发明目的:为了克服训练数据采集和标注成本高的问题,本发明提供一种基于3D模型训练YOLO神经网络的方法,并通过在场景图渲染过程中,随机化物体3D模型的中心点所在坐标、Euler角、纹理参数及场景背景模型,使得YOLO模型的泛化性得到提高,并降低了YOLO 模型的过拟合,采用此方案后,训练图片及物体标注信息获取的成本将极大的降低。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于3D模型训练YOLO神经网络的方法,首先、构建待测物体3D模型及场景背景模型并结合形成场景图,随机化物体3D模型的中心点所在坐标、Euler角、纹理参数及场景背景模型,对场景图渲染多次得到原始数据集;其次、由原始数据集中标记五元组中边框界的左上顶点坐标、右下顶点坐标与图像宽高计算得到边界框的中心点坐标、宽、高与图像宽高的相对比例,从而转换得到YOLO神经网络标准数据集;最后,建立所得数据集与YOLO神经网络结合后的损失函数,使用随机梯度下降算法求损失函数近似最小值,得到待检测物体的 YOLO目标检测模型。具体包括以下步骤:
步骤1、收集待测物体信息及场景信息,构建待测物体3D模型及场景背景模型,将两者结合形成完整的场景图(Sense Graph),在渲染过程中,随机化待测物体3D模型的中心点所在坐标、Euler角、纹理参数及场景背景模型,每次随机化后进行场景渲染将得到一张图片和对应的标注,进行N(N>10000)次随机化后得到的图片集与对应的标注集构成原始数据集;
构建原始数据集的方法如下:
步骤11,建立输出图像的渲染模型:
输出图像的渲染模型如下:
I=R(Mo,Mb,po,eo,to,pw,ew,himage,wimage,L)
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010034052.6/2.html,转载请声明来源钻瓜专利网。
- 上一篇:多操作系统渲染处理方法及装置
- 下一篇:远程显示方法及装置