[发明专利]人格类型确定方法及装置有效
申请号: | 201711439239.9 | 申请日: | 2017-12-26 |
公开(公告)号: | CN108154184B | 公开(公告)日: | 2020-12-25 |
发明(设计)人: | 林涛 | 申请(专利权)人: | 四川大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06K9/42 |
代理公司: | 北京超凡志成知识产权代理事务所(普通合伙) 11371 | 代理人: | 徐彦圣 |
地址: | 610000 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 人格 类型 确定 方法 装置 | ||
本发明实施例提供了一种人格类型确定方法及装置,属于图像处理技术领域。方法包括:获得待处理图片,待处理图片中包含有需要确定人格类型的人像;将待处理图片调整至满足预设的人格类型确定模型处理条件的预设长和宽,获得可处理图像;在根据预设的人格类型确定模型对可处理图像依次执行多层卷积和多层全连接层运算的过程中,确定出可处理图像中的人像对应的人格类型。通过人格类型确定模型的多层卷积和多层全连接层,能够通过特征提取来获得待处理图片中人像对应的人格类型,因而扩展了图像特征提取在实际应用中的应用范围,提升了图像特征提取在实际中的适用性。
技术领域
本发明涉及图像处理技术领域,具体而言,涉及一种人格类型确定方法及装置。
背景技术
近年来随着图像处理技术的飞速发展和进步,机器(终端设备)可在进行深度学习后对图像中的特征部分进行识别和提取,例如,对图像中的人像部分进行提取。但目前图像特征提取的应用还较为单一,随着人们需求水平的提高,目前图像特征提取的应用已经逐渐无法满足人们需求。
发明内容
有鉴于此,本发明的目的在于提供一种人格类型确定方法及装置,以有效改善上述缺陷。
本发明的实施例通过如下方式实现:
第一方面,本发明实施例提供了一种人格类型确定方法。所述方法包括:获得待处理图片,所述待处理图片中包含有需要确定人格类型的人像;将所述待处理图片调整至满足预设的人格类型确定模型处理条件的预设长和宽,获得可处理图像;在根据所述预设的人格类型确定模型对所述可处理图像依次执行多层卷积和多层全连接层运算的过程中,确定出所述可处理图像中的所述人像对应的人格类型。
结合上述第一方面提供的技术方案,在一些可能的实现方式中,所述在根据所述预设的人格类型确定模型对所述可处理图像依次执行多层卷积和多层全连接层运算的过程中,确定出所述可处理图像中的所述人像对应的人格类型。包括:在根据所述预设的人格类型确定模型对所述可处理图像依次连续执行所述多层卷积的过程中,从多个预设的人格类别中确定出所述可处理图像中的所述人像对应的目标人格类别,并获得对所述可处理图像依次连续执行所述多层卷积处理后的所述人像的非连续特征数据;在根据所述预设的人格类型确定模型对所述非连续特征数据依次连续执行所述多层全连接层运算的过程中,从所述目标人格类别中多个预设的人格类型中确定出所述可处理图像中的所述人像对应的目标人格类型。
结合上述第一方面提供的技术方案,在一些可能的实现方式中,所执行的所述多层卷积的层数为5层,所执行的所述多层全连接层为3层。
结合上述第一方面提供的技术方案,在一些可能的实现方式中,所述将所述待处理图片调整至满足预设的人格类型确定模型处理条件的预设长和宽,获得可处理图像。包括:根据所述待处理图片中所有表征所述待处理图片中人像部分的像素点的坐标确定出一中心坐标点;根据所述中心坐标点与所述人像部分中的边缘像素点坐标之间的差值确定出满足所述预设的人格类型确定模型处理条件的所述预设长和宽;根据所述人像部分中的边缘像素点坐标将所述人像部分的图像粘贴到按所述预设长和宽生成图像背景板中,获得所述可处理图像。
结合上述第一方面提供的技术方案,在一些可能的实现方式中,所述预设长和宽中的长度和宽度相同。
第二方面,本发明实施例提供了一种人格类型确定装置,所述装置包括:获得模块,用于获得待处理图片,所述待处理图片中包含有需要确定人格类型的人像。调整模块,用于将所述待处理图片调整至满足预设的人格类型确定模型处理条件的预设长和宽,获得可处理图像。确定模块,用于在根据所述预设的人格类型确定模型对所述可处理图像依次执行多层卷积和多层全连接层运算的过程中,确定出所述可处理图像中的所述人像对应的人格类型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711439239.9/2.html,转载请声明来源钻瓜专利网。