[发明专利]基于深度学习的用户画像分类方法、装置、设备及介质在审
申请号: | 202210560953.8 | 申请日: | 2022-05-23 |
公开(公告)号: | CN114943289A | 公开(公告)日: | 2022-08-26 |
发明(设计)人: | 邢家辉;黄毓桦;李宫怀;谢浩龙 | 申请(专利权)人: | 深圳市宏博信息科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 深圳市世纪宏博知识产权代理事务所(普通合伙) 44806 | 代理人: | 董博 |
地址: | 518000 广东省深圳市宝*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 用户 画像 分类 方法 装置 设备 介质 | ||
1.一种基于深度学习的用户画像分类方法,其特征在于,所述方法包括:
获取待分类用户画像的用户数据,并对所述用户数据进行预处理,得到目标数据;
采集所述待分类用户画像的相似用户画像,并提取所述相似用户画像的相似用户特征;
将所述目标数据和所述相似用户特征作为模型数据输入至预设的用户分类模型中,以利用所述用户分类模型中的时序记忆网络检测所述模型数据的时序关联特征;
利用所述用户分类模型中的注意力机制网络提取所述时序关联特征的信息语义序列,根据所述信息语义序列,利用所述用户分类模型中的卷积网络识别所述模型数据的数据类别,并根据所述数据类别,确定所述待分类用户画像的用户类别。
2.根据权利要求1所述的方法,其特征在于,所述对所述用户数据进行预处理,得到目标数据,包括:
提取所述用户数据中每个数据的数据字段,根据所述数据字段,识别所述用户数据中每个数据的数据属性;
将所述数据属性与预设的业务属性表进行匹配,并将匹配成功的所述数据属性对应数据作为所述目标数据。
3.根据权利要求1所述的方法,其特征在于,所述采集所述待分类用户画像的相似用户画像,包括:
获取所述待分类用户画像的用户属性,对所述用户属性进行筛选,并构建筛选后的所述用户属性的分支属性;
采集所述分支属性的历史用户画像,计算所述历史用户画像中每个用户画像的相似用户评分;
选取所述相似用户评分大于预设评分的用户画像作为所述相似用户画像。
4.根据权利要求1所述的方法,其特征在于,所述利用所述用户分类模型中的时序记忆网络检测所述模型数据的时序关联特征,包括:
利用所述时序记忆网络中的输入门计算所述模型数据的状态值,并利用所述时序记忆网络中的投影层对所述状态值进行降维,得到降维状态值;
利用所述时序记忆网络中的遗忘门计算所述模型数据的激活值,并利用所述时序记忆网络中的投影层对所述降维状态值进行激活值进行降维,得到降维激活值;
根据所述降维状态值和降维激活值计算所述模型数据的状态更新值;
利用所述时序记忆网络中的输出门计算所述状态更新值的关联特征序列,并利用所述时序记忆网络中的投影层对所述关联特征序列进行降维,得到所述模型数据的时序关联特征。
5.根据权利要求1所述的方法,其特征在于,所述利用所述用户分类模型中的注意力机制网络提取所述时序关联特征的信息语义序列,包括:
利用所述注意力机制网络中的位置编码层对所述时序关联特征进行位置编码,得到编码关联特征;
利用所述注意力机制中的编码器对所述编码关联特征进行特征编码,得到关键编码特征;
利用所述注意力机制中的解码器对所述关键编码特征进行语义信息解码,得到信息语义序列。
6.根据权利要求5所述的方法,其特征在于,所述利用所述注意力机制网络中的位置编码层对所述时序关联特征进行位置编码,得到编码关联特征,包括:
利用下述公式对所述时序关联特征进行位置编码:
其中,E(p,2x)表示时序关联特征中第偶数个的编码关联特征,pos表示位置编码索引,x表示在时序关联特征中第i个特征向量,dml表示特征向量维度,E(p,2x+1)表示时序关联特征中第奇数个的编码关联特征。
7.根据权利要求1至6中任意一项所述的方法,其特征在于,所述根据所述信息语义序列,利用所述用户分类模型中的卷积网络识别所述模型数据的数据类别,包括:
根据所述信息语义序列,利用所述卷积网络中的卷积层对所述模型数据进行卷积操作,得到特征数据;
利用所述卷积网络中的标准层对所述特征数据进行标准化,得到标准数据;
利用所述卷积网络中的全连接层计算所述标准数据的数据类别概率,根据所述数据类别概率,利用所述卷积网络中的输出层输出所述模型数据的数据类别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市宏博信息科技有限公司,未经深圳市宏博信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210560953.8/1.html,转载请声明来源钻瓜专利网。