[发明专利]一种基于人脸识别自适应调节方法、系统和可读存储介质在审
申请号: | 201910371003.9 | 申请日: | 2019-05-06 |
公开(公告)号: | CN110287766A | 公开(公告)日: | 2019-09-27 |
发明(设计)人: | 朱胜强 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 北京鸿元知识产权代理有限公司 11327 | 代理人: | 管士涛;杨桦 |
地址: | 518033 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 灯光 人脸识别 可读存储介质 面部特征数据 自适应调节 声音模式 用户情绪 生物识别技术 情绪识别 声音调节 听觉视觉 线性调节 舒适度 自适应 比对 预设 和声 察觉 智能 情绪 | ||
1.一种基于人脸识别的自适应调节方法,其特征在于,包括:
对用户进行人脸识别,获取用户的面部特征数据;
通过所述面部特征数据识别出用户情绪;
将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息;
根据所述灯光和/或声音模式信息,对灯光和/或声音进行调节。
2.根据权利要求1所述的一种基于人脸识别的自适应调节方法,其特征在于,所述将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息,包括:
获取用户情绪,划分情绪类别;
判断所述用户情绪的保持时间是否达到所属情绪类别的预设时长;
若达到了预设时长,则获取对应的灯光和/或声音模式信息。
3.根据权利要求1所述的一种基于人脸识别的自适应调节方法,其特征在于,所述将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息,包括:
获取预设区域范围内每个用户的情绪,并进行统计,得到每个情绪类别下的用户数量;
判断预定情绪类别下用户数量是否大于预设用户数量阈值;
若大于预设用户数量阈值,则获取对应的灯光和/或声音模式信息。
4.根据权利要求1所述的一种基于人脸识别的自适应调节方法,其特征在于,所述通过所述面部特征数据识别出用户情绪,具体为:
将获取的用户的面部特征数据输入预设的情绪识别模型;
通过情绪识别模型进行情绪识别;
将满足条件的情绪类别输出,得到用户情绪。
5.根据权利要求4所述的一种基于人脸识别的自适应调节方法,其特征在于,所述通过情绪识别模型进行情绪识别,包括:
将用户的面部特征与预设情绪识别模型中的情绪类别进行比对;
计算每个情绪类别的情绪概率值;
将所述的每个情绪类别的情绪概率值进行排序,选出最高的情绪概率值;
将所述最高的情绪概率值与所述的预设情绪值进行比较;
若所述最高的情绪概率值大于所述的预设情绪值,则确认所述最高的情绪概率值对应的情绪为用户情绪。
6.根据权利要求1所述的一种基于人脸识别的自适应调节方法,其特征在于,所述对灯光和/或声音进行调节,包括:
获取模式信息,根据所述模式信息判断调节时间和调节状态值;
获取将灯光和/或声音的当前状态值,与所述调节状态值进行比较,获取调节差值;
通过所述调节差值和调节时间得到单位时间调节值;
根据所述单位时间调节值以线性方式对灯光和/或声音进行调节。
7.一种基于人脸识别的自适应调节系统,其特征在于,该系统包括:存储器、处理器及摄像装置,所述存储器中包括一种基于人脸识别的自适应调节方法程序,所述一种基于人脸识别的自适应调节方法程序被所述处理器执行时实现如下步骤:
对用户进行人脸识别,获取用户的面部特征数据;
通过所述面部特征数据识别出用户情绪;
将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息;
根据所述灯光和/或声音模式信息,对灯光和/或声音进行调节。
8.根据权利要求7所述的一种基于人脸识别的自适应调节系统,其特征在于,所述将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息,包括:
获取用户情绪,划分情绪类别;
判断所述用户情绪的保持时间是否达到所属情绪类别的预设时长;
若达到了预设时长,则获取对应的灯光和/或声音模式信息;或
获取预设区域范围内每个用户的情绪,并进行统计,得到每个情绪类别下的用户数量;
判断预定情绪类别下用户数量是否大于预设用户数量阈值;
若大于预设用户数量阈值,则获取对应的灯光和/或声音模式信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910371003.9/1.html,转载请声明来源钻瓜专利网。