[发明专利]查询语句的获取方法及服务器在审

专利信息
申请号: 201410196481.8 申请日: 2014-05-09
公开(公告)号: CN105095269A 公开(公告)日: 2015-11-25
发明(设计)人: 阮淑梨;蒋建;魏洪平;谢庆伟 申请(专利权)人: 阿里巴巴集团控股有限公司
主分类号: G06F17/30 分类号: G06F17/30
代理公司: 北京亿腾知识产权代理事务所 11309 代理人: 戴燕
地址: 英属开曼群岛大开*** 国省代码: 开曼群岛;KY
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 查询 语句 获取 方法 服务器
【说明书】:

技术领域

本申请涉及计算机技术领域,尤其涉及一种查询语句的获取方法及服务器。

背景技术

在网页页面的搜索中,当用户通过搜索框输入查询信息,且该查询信息为一个词语时,通常需要根据该词语与网页服务器已存储的词语的关联度,来猜测用户想要输入的查询语句,并将该猜测的查询语句作为备选查询语句推荐给用户。

词对的关联度计算即为在给定前n个词的情况下,计算出现某个词的概率。在关联度的计算中,最常用的模型是N元语言(N-gram)模型,N表示长文本中连续出现的N个词,该模型基于马尔科夫假设,其认为:1)第n个词出现的概率仅仅依赖于第n-1个词出现的概率;2)n个词连续出现的概率等于这n个词分别出现的概率的乘积。用公式表达如下:

P(W1W2…Wn)=P(W1)?(W2|W1)P(Wa|W1W2)…P(WnW1W2…Wa-1)

对于P(Wi|W1W2...Wi-1)可采用最大似然估计计算,计算公式如下:

P(Wi|W1W2...Wi-1)=C(W1W2...Wi)C(W1W2...Wi-1)]]>

其中,C(W1W2...Wi)表示在训练语料中,W1W2...Wi连续出现的频率。在上述第一个公式中,尽管n的取值越大,对下一个词出现的约束信息更多,估计概率更有辨识度,但n值越大,数据稀疏的情况就越明显,零概率的产生就更容易,而且计算代码也随之增大。而对于较小的n,由于在训练语料中能获得更可靠的统计信息,所以估计的概率会更可靠。由上,最常用的N-gram模型是二元语言模型(Bigram),其计算公式如下:

P(W1W2…Wn)=P(W1)P(W2|W1)P(Wa|W2)…P(Wn|Wn-1)

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于阿里巴巴集团控股有限公司,未经阿里巴巴集团控股有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201410196481.8/2.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top