[发明专利]身份验证方法及系统在审
申请号: | 202011341050.8 | 申请日: | 2020-11-25 |
公开(公告)号: | CN112487384A | 公开(公告)日: | 2021-03-12 |
发明(设计)人: | 王仁宇;高振东;吴晶;王东;李蓝天 | 申请(专利权)人: | 华为技术有限公司;清华大学 |
主分类号: | G06F21/32 | 分类号: | G06F21/32;G06F17/18;G06N3/08 |
代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 熊永强;李稷芳 |
地址: | 518129 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 身份验证 方法 系统 | ||
本申请涉及人工智能领域,提供了一种身份验证的方法。所述方法包括:获得在注册场景下从第一注册对象提取的生物特征;获得在识别场景下从第一识别对象提取的生物特征;根据第一注册对象的生物特征述第一识别对象的生物特征计算似然打分;以及根据似然打分判断第一识别对象的身份是否与第一注册对象的身份一致。似然打分包括后验概率部分和边缘概率部分。
技术领域
本申请涉及人工智能领域,具体涉及通过用户的生物特征进行身份验证方法及系统。
背景技术
利用用户的生物特征可以注册该用户的生物特征,并在识别时根据注册的生物特征对用户身份进行验证。例如常见的人脸识别、指纹识别和声纹识别,通过比较用户预先留下的特征和识别时采集的特征,从而完成特征比对和身份鉴别。以常见的声纹识别为例子,又称为说话人识别,指的是利用语音中包含的说话人特征信息,从而自动鉴别对话者身份。其中,声纹识别通常包括两个阶段,注册阶段和识别阶段。注册阶段指的是说话人预留语音,从预留语音中提取声纹特征,然后根据声纹特征训练得到对应的说话人模型,并进行模型存储。识别阶段指的是对说话人进行识别认证,对识别语音进行声纹特征提取,并将识别时的声纹特征与存储在模型库中的模型做相似性的似然打分,最终根据识别的打分确定说话人身份。基于深度神经网络的声纹识别通常会使用大量的说话人训练语料来训练深度神经网络,然后将原始的声学特征通过训练得到的神经网络进行声纹特征提取,提取得到的特征表征说话人特征。常用的声纹特征有I-vector,TDNN-X-vector,RESNET-embedding等。
声纹识别技术和相似的基于生物特征进行身份验证的技术面临识别时鲁棒性问题。以声纹识别为例,在实际中往往需要根据用户提供的少量的预留语音讯息来建立用户的声纹模型,而少量的预留语音讯息很难捕捉鲁棒的声纹特征,从而导致训练得到的语音特征无法很好覆盖说话人自身的变化,导致声纹注册和识别时的失配。另一方面,在识别场景中,说话人自身声音特征可能产生随时间变化以及说话状态、方式等的变化,识别场景也可能存在噪声干扰、信道设备差异等因素,还有声纹注册和声纹识别采用不同装置带来的信道差异,从而导致说话人特征空间的变动,这些也会造成声纹注册和识别时的失配。声纹注册场景和声纹识别场景的失配,会降低识别准确率,影响用户使用体验。
现有技术中,为了应对声纹注册场景和声纹识别场景的失配,主要通过以下做法:对失配场景的原始数据和特征进行增强和变换,尽可能满足注册场景要求;在训练模型时进行优化,降低用户声纹特征随用户自身或场景变化的敏感度,从而减小场景失配带来的影响;在后端打分时对特定场景的打分模型进行建模(例如自适应PLDA模型等)。然而,现有技术中的应对手段,都是通过在数据特征或者模型训练方面弱化场景失配对声纹特征变化造成的影响,并没有充分考虑到注册场景和识别场景各自采集的数据存在客观的统计学意义上的不一致性,也因此难以从根本上弥补场景失配造成的差异。另外,现有技术的做法也没有充分考虑到造成场景失配的多样化成因。因此,需要一种技术方案能接受场景失配的客观存在性,并充分考虑到背后的多样化成因。
发明内容
本申请的目的在于,为了解决现有技术中存在的场景失配而造成身份验证性能下降等技术问题,提供一种身份验证的方法及系统。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华为技术有限公司;清华大学,未经华为技术有限公司;清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011341050.8/2.html,转载请声明来源钻瓜专利网。