[发明专利]基于深度感知的单目视觉图像背景快速虚化的方法及系统在审
申请号: | 202011049747.8 | 申请日: | 2020-09-29 |
公开(公告)号: | CN112184586A | 公开(公告)日: | 2021-01-05 |
发明(设计)人: | 冷聪;李成华;乔聪玉;程健 | 申请(专利权)人: | 中科方寸知微(南京)科技有限公司;中国科学院自动化研究所南京人工智能芯片创新研究院 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06T11/00;G06N3/08;G06N3/04 |
代理公司: | 南京泰普专利代理事务所(普通合伙) 32360 | 代理人: | 张磊 |
地址: | 211000 江苏省南京市江宁区麒麟科*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 感知 目视 图像 背景 快速 方法 系统 | ||
1.一种基于深度感知的单目视觉图像背景快速虚化的方法,其特征在于,包括:
步骤一、建立模型训练数据集;
步骤二、构建深度感知的单目视觉图像训练网络;
步骤三、经过训练的神经网络模型接收待进行散景渲染的图片,完成散景渲染后将图片输出。
2.根据权利要求1所述的一种基于深度感知的单目视觉图像背景快速虚化的方法,其特征在于,所述步骤一进一步为:
建立用于步骤二中构建模型训练的数据集,所述数据集为真实场景图片,其中,每张场景图片都具有对应的照片,所述对应的照片为具有背景虚化的图片;所述具有背景虚化的图片用于与模型输出图片对比,从而获得产生的误差值。
3.根据权利要求1所述的一种基于深度感知的单目视觉图像背景快速虚化的方法,其特征在于,所述步骤二进一步为:
构建深度感知的单目视觉图像训练网络,训练该网络形成产生散景效果渲染的网络模型;该网络的训练方式为首先接收步骤一建立数据集中的输入图片数据;其次,通过设计的卷积层和激活函数的协同方式进行特征提取;然后,利用损失函数激活学习权重;最后,通过模糊函数的迭代形成预定模糊程度效果的呈现,并通过权重、模糊函数迭代结果两者的加权和实现最终图像的输出,通过按照流程完成网络学习训练,得到输出图片为具有散景效果的网络模型。
4.根据权利要求1所述的一种基于深度感知的单目视觉图像背景快速虚化的方法,其特征在于,所述步骤二进一步为:
产生带有散景渲染效果图片的模型具体可以构建为:
其中,Ibokeh表示最终获得的图像,Iorg表示原始图像,表示矩阵逐元素相乘,Bi(·)是第i级模糊函数,Wi表示第i层数据图像的特征权重矩阵值,涉及的第i级模糊函数Bi(·)为浅层模糊神经网络迭代i次获得的,其表示为:
其中,损失函数l采用重构函数和结构相似性SSIM的结合,通过误差值的反向传播优化模型;其中l1具体为:
其中,Ibokeh表示模型生成带有散景效果的图像,表示实际带有散景效果的图像的原始图像,表示产生的图像Ibokeh与实际图像之间的结构相似性,具体如下:
其中,α、β、γ为预设定的常数,表示产生的图像Ibokeh与实际图像之间的亮度关系,表示产生的图像Ibokeh与实际图像之间的对比度关系,表示产生的图像Ibokeh与实际图像之间的结构关系。
5.根据权利要求1所述的一种基于深度感知的单目视觉图像背景快速虚化的方法,其特征在于,所述步骤三进一步为:
首先,步骤二中获得的散景效果渲染的网络模型接收待进行背景虚化的图片;其次,散景效果渲染网络模型中的卷积层和激活函数提取计算接收到图像的特征图权重,并将获得的数值作为模糊层加权和的对应数据;再次,散景效果渲染网络模型中的浅层模糊网络将接收到的待进行背景虚化的图片信号进行模糊化操作;从次,利用散景效果渲染网络模型中设定的加权和计算方式,将获得的权重和模糊函数进行加权和的计算,获得处理后图像的数值;最后,散景效果渲染网络模型将获得处理后的图像数值输出,即将产生具有散景效果渲染的图像输出。
6.一种基于深度感知的单目视觉图像背景快速虚化的系统,用于实现上述权利要求1~5中任一项所述方法其特征在于其特征在于包含以下模块:
用于建立训练集的第一模块;
用于获得具有散景效果网络模型的第二模块;
用于实现散景效果的第三模块。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中科方寸知微(南京)科技有限公司;中国科学院自动化研究所南京人工智能芯片创新研究院,未经中科方寸知微(南京)科技有限公司;中国科学院自动化研究所南京人工智能芯片创新研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011049747.8/1.html,转载请声明来源钻瓜专利网。