[发明专利]查询语句的获取方法及服务器在审
申请号: | 201410196481.8 | 申请日: | 2014-05-09 |
公开(公告)号: | CN105095269A | 公开(公告)日: | 2015-11-25 |
发明(设计)人: | 阮淑梨;蒋建;魏洪平;谢庆伟 | 申请(专利权)人: | 阿里巴巴集团控股有限公司 |
主分类号: | G06F17/30 | 分类号: | G06F17/30 |
代理公司: | 北京亿腾知识产权代理事务所 11309 | 代理人: | 戴燕 |
地址: | 英属开曼群岛大开*** | 国省代码: | 开曼群岛;KY |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 查询 语句 获取 方法 服务器 | ||
技术领域
本申请涉及计算机技术领域,尤其涉及一种查询语句的获取方法及服务器。
背景技术
在网页页面的搜索中,当用户通过搜索框输入查询信息,且该查询信息为一个词语时,通常需要根据该词语与网页服务器已存储的词语的关联度,来猜测用户想要输入的查询语句,并将该猜测的查询语句作为备选查询语句推荐给用户。
词对的关联度计算即为在给定前n个词的情况下,计算出现某个词的概率。在关联度的计算中,最常用的模型是N元语言(N-gram)模型,N表示长文本中连续出现的N个词,该模型基于马尔科夫假设,其认为:1)第n个词出现的概率仅仅依赖于第n-1个词出现的概率;2)n个词连续出现的概率等于这n个词分别出现的概率的乘积。用公式表达如下:
P(W1W2…Wn)=P(W1)?(W2|W1)P(Wa|W1W2)…P(WnW1W2…Wa-1)
对于P(Wi|W1W2...Wi-1)可采用最大似然估计计算,计算公式如下:
其中,C(W1W2...Wi)表示在训练语料中,W1W2...Wi连续出现的频率。在上述第一个公式中,尽管n的取值越大,对下一个词出现的约束信息更多,估计概率更有辨识度,但n值越大,数据稀疏的情况就越明显,零概率的产生就更容易,而且计算代码也随之增大。而对于较小的n,由于在训练语料中能获得更可靠的统计信息,所以估计的概率会更可靠。由上,最常用的N-gram模型是二元语言模型(Bigram),其计算公式如下:
P(W1W2…Wn)=P(W1)P(W2|W1)P(Wa|W2)…P(Wn|Wn-1)
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于阿里巴巴集团控股有限公司,未经阿里巴巴集团控股有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201410196481.8/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种连续可调单双缝装置
- 下一篇:用于创业云平台的大数据算法