[发明专利]面向神经机器翻译的长句切分方法及装置有效
申请号: | 201610224531.8 | 申请日: | 2016-04-12 |
公开(公告)号: | CN105912533B | 公开(公告)日: | 2019-02-12 |
发明(设计)人: | 熊德意;邝少辉 | 申请(专利权)人: | 苏州大学 |
主分类号: | G06F17/28 | 分类号: | G06F17/28;G06F17/24;G06F17/27 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 常亮 |
地址: | 215123 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本申请提供了一种面向神经机器翻译的长句切分方法,在使用NMT模型进行语句翻译前,并非直接将源语句输入NMT模型中,而是将语句切分为较短的子句,将各个子句依次输入NMT模型,以使NMT模型分别依次翻译各个切分后的子句,然后,直接将翻译后的子句拼接为完整子句。由于输入NMT模型翻译的子句较短,NMT模型的翻译准确率较高,从而提高了语句翻译的准确率。另外,本申请还提供了一种面向神经机器翻译的长句切分装置,用以保证所述方法在实际中的应用及实现。 | ||
搜索关键词: | 面向 神经 机器翻译 长句 切分 方法 装置 | ||
【主权项】:
1.一种面向神经机器翻译的长句切分方法,其特征在于,包括:在获得待翻译的源语句后,确定所述源语句的长度;在所述长度大于预设长度的情况下,利用预先构建的切分模型对所述源语句进行切分,获得多个源子句;其中,各个所述源子句之间具有先后顺序;将每个所述源子句输入至预先训练好的神经机器翻译NMT模型中进行翻译,获得每个所述源子句所对应的目标子句;按照各个所述源子句的先后顺序,拼接所述源子句所对应的目标子句,获得所述源语句的目标语句;其中,所述利用预先构建的切分模型对所述源语句进行切分,获得多个源子句,包括:将所述源语句作为待切分源语句;将所述待切分源语句输入至预先构建的切分模型中,获得所述待切分源语句中每个词单元所对应的切分概率;依据所述切分概率,在多个所述词单元中选取目标词单元作为切分点;将所述待切分源语句中所述切分点之后的语句作为新的待切分源语句,将所述新的待切分源语句输入至预先构建的切分模型中,直至所述新的待切分源语句的长度小于预设的最小子句长度;所述新的待切分源语句的长度小于预设的最小子句长度时,根据选取的各个所述切分点,在所述源语句中切分出源子句;所述切分模型包括分割子模型、调序子模型及长度子模型;相应地,将所述待切分源语句输入至预先构建的切分模型中,获得所述待切分源语句中每个词单元所对应的切分概率,包括:将所述待切分源语句中的词单元输入至所述分割子模型,获得所述词单元的可分割概率;将所述待切分源语句中的词单元输入至所述调序子模型,获得所述词单元对应的子句与上一子句的不需要调序概率;其中,所述上一子句为所述待切分源语句的前一源子句;将所述待切分源语句中词单元对应的子句的长度输入至所述长度子模型,获得所述词单元对应的子句的长度满意概率;以及将所述可分割概率、所述不需要调序概率及所述长度满意概率三者的乘积作为词单元的切分概率。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州大学,未经苏州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610224531.8/,转载请声明来源钻瓜专利网。
- 上一篇:一体式自动开合谱架和键盖
- 下一篇:一种八音盒