[发明专利]基于卷积神经网络的人脸深度预测方法有效
申请号: | 201710183903.1 | 申请日: | 2017-03-24 |
公开(公告)号: | CN107103285B | 公开(公告)日: | 2020-03-03 |
发明(设计)人: | 王好谦;章书豪;方璐;王兴政;张永兵;戴琼海 | 申请(专利权)人: | 深圳市未来媒体技术研究院;清华大学深圳研究生院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04 |
代理公司: | 深圳新创友知识产权代理有限公司 44223 | 代理人: | 徐罗艳 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 卷积 神经网络 深度 预测 方法 | ||
1.一种基于卷积神经网络的人脸深度预测方法,包括生成一人脸深度预测神经网络的步骤,所述生成一人脸深度预测神经网络的步骤包括:
S1、搭建卷积神经网络,所述卷积神经网络包括多个依次串联的卷积层单元和多个依次串联的反卷积层,并且最末一个卷积层单元的输出端连接于第一个反卷积层的输入端;每个所述卷积层单元包括一个卷积层以及该卷积层输出端依次串联的一规范化操作和一激励操作,通过对卷积层后面连接所述规范化操作和所述激励操作以提升深层网络的收敛性;每个所述卷积层单元分别并联有一个k×k的卷积,其中k为大于0的整数;
S2、初始化所述卷积神经网络的训练参数;
S3、将用于训练的人脸图片输入到初始化后的卷积神经网络中,以最小化代价函数为目标进行迭代,以生成所述人脸深度预测神经网络;其中,每迭代一次则更新一次所述训练参数。
2.如权利要求1所述的人脸深度预测方法,其特征在于:步骤S2中通过随机高斯分布生成初始化的训练参数;步骤S3中利用反向传播算法来更新所述训练参数。
3.如权利要求1所述的人脸深度预测方法,其特征在于:步骤S3中的代价函数如下:
其中,为正则项,为损失项;yi、yi*分别表示用于训练的第i张人脸图片经过所述卷积神经网络训练后所得到的像素深度值、像素ground truth值,n表示用于训练的每张人脸图片中具有深度信息的像素点个数,λ表示损失项的正则系数。
4.如权利要求3所述的人脸深度预测方法,其特征在于:通过采用Adam Optimizer方法来最小化代价函数。
5.如权利要求1所述的人脸深度预测方法,其特征在于:所述规范化操作为BatchNormalization操作,所述激励操作为Leaky ReLU激励操作。
6.一种基于卷积神经网络的人脸深度预测方法,包括生成一人脸深度预测神经网络的步骤,所述生成一人脸深度预测神经网络的步骤包括:
S1、搭建卷积神经网络,所述卷积神经网络包括多个依次串联的第一卷积层单元、多个依次串联的第二卷积层和多个依次串联的反卷积层,并且,所述第二卷积层的数量与所述反卷积层的数量相同;每个所述第一卷积层单元均包括一个第一卷积层以及该第一卷积层输出端依次串联的一规范化操作和一激励操作,通过对卷积层后面连接所述规范化操作和所述激励操作以提升深层网络的收敛性;并且,每个所述第一卷积层单元分别并联有一个k×k的卷积;最末一个所述第一卷积层单元的输出端连接于第一个所述第二卷积层的输入端,最末一个所述第二卷积层的输出端连接于第一个反卷积层的输入端;第一个所述第二卷积层的输出端与最末一个反卷积层的输出端之间连接有一个k×k的卷积,第二个所述第二卷积层的输出端与倒数第二个反卷积层的输出端之间连接有一个k×k的卷积,依此类推,使得每一个所述第二卷积层的输出端分别经由一个k×k的卷积后一一对应地连接至一反卷积层的输出端;其中k为大于0的整数;
S2、初始化所述卷积神经网络的训练参数;
S3、将用于训练的人脸图片输入到初始化后的卷积神经网络中,以最小化代价函数为目标进行迭代,以生成所述人脸深度预测神经网络;其中,每迭代一次则更新一次所述训练参数。
7.如权利要求6所述的人脸深度预测方法,其特征在于:步骤S2中通过随机高斯分布生成初始化的训练参数;步骤S3中利用反向传播算法来更新所述训练参数。
8.如权利要求6所述的人脸深度预测方法,其特征在于:步骤S3中的代价函数如下:
其中,为正则项,为损失项;yi、yi*分别表示用于训练的第i张人脸图片经过所述卷积神经网络训练后所得到的像素深度值、像素ground truth值,n表示用于训练的每张人脸图片中具有深度信息的像素点个数,λ表示损失项的正则系数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市未来媒体技术研究院;清华大学深圳研究生院,未经深圳市未来媒体技术研究院;清华大学深圳研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710183903.1/1.html,转载请声明来源钻瓜专利网。