[发明专利]一种基于词向量和Bert的群体内隐立场分析方法有效
申请号: | 202011451101.2 | 申请日: | 2020-12-09 |
公开(公告)号: | CN112836486B | 公开(公告)日: | 2022-06-03 |
发明(设计)人: | 韩旭;王博;蒋沁学;陈根华;黄博帆 | 申请(专利权)人: | 天津大学 |
主分类号: | G06F40/205 | 分类号: | G06F40/205;G06F40/284;G06F40/30;G06F40/126;G06F16/35 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 刘子文 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 向量 bert 群体 立场 分析 方法 | ||
1.一种基于词向量和Bert的群体内隐立场分析方法,其特征在于,通过文本语料库训练Bert模型,结合句向量进行群体内隐立场分析;包括数据解析模块、模型训练模块以及内隐立场分析模块;
数据解析模块用于解析提取社会群体中用户发表的言论数据,根据内隐联想测试中提到的目标词和属性词对用户的言论分类;对其中抽取的正文文本进行分句得到言论集合A,再提取到既包含目标词又包含属性词的句子集合B,和不包含目标词和属性词的集合C;
模型训练模块用于构建学习社会群体语言大数据文本偏见的模型;基于数据解析模块根据目标词和属性词获得的集合,获取得到每个句子的嵌入向量;
内隐立场分析模块根据句子的嵌入向量之间的距离远近来测量对应目标词和属性词之间的关系大小,从而量化社会群体用户的内隐立场态度;
模型训练模块采取的是多层双向的Transformer编码器Bert模型,将L表示为层数,将H表示为隐藏层数目,将A表示为self-attention头的数目;在所有情况下,设置前馈全连接层的输出数目为4H,当H=768时,前馈数目为3072,使用的模型架构如下:
BERTbase:L=12,H=768,A=12,TotalParameters=110M;
态度偏差有如下公式进行计算:
其中s(a,C1,C2)表示w与属性词之间的关联程度;
其中,E.Size表示群体对概念Ci或Cj与属性Dp或Dq的关联大小,即为态度偏差。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011451101.2/1.html,转载请声明来源钻瓜专利网。