[发明专利]标点添加方法和装置、用于标点添加的装置有效
申请号: | 201710382058.0 | 申请日: | 2017-05-26 |
公开(公告)号: | CN107221330B | 公开(公告)日: | 2020-11-27 |
发明(设计)人: | 姜里羊;王宇光;陈伟;郑宏 | 申请(专利权)人: | 北京搜狗科技发展有限公司 |
主分类号: | G10L15/26 | 分类号: | G10L15/26;G10L15/30;G06F40/166;G06F40/30;G06K9/72;G06N3/08 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 莎日娜 |
地址: | 100084 北京市海淀区中关*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 标点 添加 方法 装置 用于 | ||
1.一种标点添加方法,其特征在于,包括:
获取待处理文本;所述待处理文本为依据语音信号的间隔时间、和/或、语音信号对应的文本包含的字数,从所述语音信号对应的文本中得到;
通过神经网络转换模型为所述待处理文本添加标点,以得到所述待处理文本对应的标点添加结果;其中,所述神经网络转换模型为依据平行语料训练得到,所述平行语料包括:源端语料和目标端语料,所述目标端语料为所述源端语料中各词汇对应的标点;所述标点添加结果包括:所述待处理文本中各词汇分别对应的标点;
其中,所述标点添加结果为依据源端对应的上下文向量得到,所述上下文向量为依据对齐概率得到;所述对齐概率为所述待处理文本对应的源端位置与标点添加结果对应的目标端位置之间的对齐概率;
所述对齐概率的确定方式包括:
依据神经网络转换模型的模型参数和目标端隐层状态,得到所述待处理文本对应的源端位置与标点添加结果对应的目标端位置之间的对齐概率;或者
通过比较源端隐层状态和目标端隐层状态,得到所述待处理文本对应的源端位置与标点添加结果对应的目标端位置之间的对齐概率;或者
确定目标端位置对应的对齐源端位置,确定各目标端位置与其对应的对齐源端位置之间的对齐概率。
2.根据权利要求1所述的方法,其特征在于,所述通过神经网络转换模型为所述待处理文本添加标点,包括:
对所述待处理文本进行编码,以得到所述待处理文本对应的源端隐层状态;
依据神经网络转换模型的模型参数,对所述待处理文本对应的源端隐层状态进行解码,以得到所述待处理文本中各词汇属于候选标点的概率;
依据待处理文本中各词汇属于候选标点的概率,得到所述待处理文本对应的标点添加结果。
3.根据权利要求2所述的方法,其特征在于,所述通过神经网络转换模型为所述待处理文本添加标点,还包括:
确定所述待处理文本对应的源端位置与标点添加结果对应的目标端位置之间的对齐概率;
则所述依据神经网络转换模型的模型参数,对所述待处理文本对应的源端隐层状态进行解码,包括:
依据所述对齐概率和所述待处理文本对应的源端隐层状态,得到源端对应的上下文向量;
依据所述上下文向量,确定目标端隐层状态;
依据所述隐层状态和神经网络转换模型的模型参数,确定所述待处理文本中各词汇属于候选标点的概率。
4.根据权利要求2所述的方法,其特征在于,所述源端隐层状态包括:前向的源端隐层状态;或者,所述源端隐层状态包括:前向的源端隐层状态和后向的源端隐层状态。
5.根据权利要求1至4中任一所述的方法,其特征在于,依据平行语料训练得到神经网络转换模型,包括:
依据神经网络结构,建立源端的词汇到目标端的标点的神经网络转换模型;
利用神经网络学习算法,对平行语料进行训练,以得到所述神经网络转换模型的模型参数。
6.根据权利要求5所述的方法,其特征在于,所述神经网络结构包括以下至少一种:循环神经网络RNN、长短期记忆LSTM、以及门控循环单元GRU。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京搜狗科技发展有限公司,未经北京搜狗科技发展有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710382058.0/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种组合存储柜
- 下一篇:一种混合式温度控制存储柜