[发明专利]基于双向LSTM-Attention的IPTV用户体验预测方法在审
申请号: | 201910584507.9 | 申请日: | 2019-07-01 |
公开(公告)号: | CN110446112A | 公开(公告)日: | 2019-11-12 |
发明(设计)人: | 魏昕;朱培康;毛佳丽;周亮 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | H04N21/466 | 分类号: | H04N21/466 |
代理公司: | 南京苏科专利代理有限责任公司 32102 | 代理人: | 陈栋智 |
地址: | 210012 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 预测 权重 用户体验 随机初始化 时序 网络 机制实现 客观特征 模型训练 时序输出 输出向量 损失函数 影响用户 主观特征 主客观 关联性 加权和 交叉熵 准确率 建模 向量 引入 更新 | ||
1.基于双向LSTM-Attention的IPTV用户体验预测方法,其特征在于,包括以下步骤:
步骤1:建立双向LSTM-Attention模型
构建双向LSTM-Attention模型,其包含输入层—双向LSTM层—Attention机制层—输出层结构;其中,双向LSTM层,从前向和后向两个方向对输入层送来的数据进行训练,建模当前用户QoE与之前时刻及之后下一时刻的依赖关系;Attention机制层是先计算每个时序的权重,然后将所有时序输出的向量进行加权和作为输出向量,送给输出层;
步骤2:训练双向LSTM-Attention模型:
双向LSTM-Attention模型的训练数据集为:
D={(x1,y1),(x2,y2),…,(xn,yn)},yk=(1,2,3,4,5),其中,输入数据xk含i个客观特征和j个主观特征,即xk=(xk1;xk2;…;xki;xk(i+1);…;xk(i+j)),输出数据yk含1,2,3,4,5共5种MOS值,在经过设置的迭代次数的迭代之后,得到训练好的双向LSTM-Attention模型;
步骤3:预测
双向LSTM-Attention模型训练完成后,将要预测的特征:
x′k1;x′k2;…;x′ki;x′k(i+1);…;x′k(i+j)输入模型,即可得到预测的QoE值其中f为训练好的双向LSTM-Attention模型。
2.根据权利要求1所述的基于双向LSTM-Attention的IPTV用户体验预测方法,其特征在于,所述步骤1中双向LSTM-Attention建立构建过程如下:
步骤1-1:建立输入层
建立双向LSTM-Attention模型的训练数据集:
D={(x1,y1),(x2,y2),…,(xn,yn)},yk=(1,2,3,4,5),其中,输入数据xk含i个客观特征和j个主观特征,即xk=(xk1;xk2;…;xki;xk(i+1);…;xk(i+j)),输出数据yk含1,2,3,4,5共5种MOS值;输入层共有i+j个单元,分别对应i个客观特征和j个主观特征;
步骤1-2:建立双向LSTM层
双向LSTM层包含正向LSTM和反向LSTM;正向LSTM将输入层输入的特征xk1;xk2;…;xki;xk(i+1);…;xk(i+j)计算得到对应的时序前向隐层状态反向LSTM将输入层输入的特征xk1;xk2;…;xki;xk(i+1);…;xk(i+j)反向读入,即从xk(i+j);…;xk(i+1);xki;…;xk2;xk1计算,得到对应的时序反向隐层状态将第i时刻正向隐状态和反向隐状态相加,得到双向LSTM第i时刻的隐层状态hi,则双向LSTM层每个时序对应的输出向量为h1,h2,…,ht;
步骤1-3:建立Attention层
将双向LSTM层的输出向量的集合表示H,H=[h1,h2,…,ht],令M=tanh(H),计算注意力分值α,α=softmax(waTM),其中wa是一个由可训练参数构成的权重向量;计算Attention层的输出v,v=tanh(HɑT);
步骤1-4:建立输出层
将Attention层的输出v作为输入,通过一个softmax分类器预测QoE值
Wc,bc为可训练的参数;
经过步骤1-1~步骤1-4之后,完成双向LSTM-Attention模型的建立。
3.根据权利要求1所述的基于双向LSTM-Attention的IPTV用户体验预测方法,其特征在于,所述步骤2中双向LSTM-Attention模型训练过程如下:
步骤2-1:构造输出矩阵Y,采用one-hot编码将MOS值{y1,…,yn}转换为二进制的矩阵形式,即
1→[1,0,0,0,0]
2→[0,1,0,0,0]
3→[0,0,1,0,0]
4→[0,0,0,1,0]
5→[0,0,0,0,1];
步骤2-2:确定Dropout=0.2,学习率η=0.01,即学习步长,用来控制LSTM模型的学习进度;
步骤2-3:随机初始化LSTM网络中的连接权重与阈值,为预测值;目标:最小化交叉熵损失函数;
步骤2-4:设置迭代次数epochs,基于构造的LSTM神经网络,开始迭代训练;
步骤2-5:计算训练数据集,在当前迭代次数i下,训练得到的LSTM神经网络的损失函数Eloss;
步骤2-6:权重更新;采用下式对模型中的权重进行更新:
W←W+ΔW,其中
步骤2-7:判断迭代是否结束,若i<epochs,重复步骤2-5至2-8;否则输出训练模型,用f表示。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910584507.9/1.html,转载请声明来源钻瓜专利网。