[发明专利]基于深度学习可见光室内高精度指纹定位方法在审
申请号: | 201711478434.2 | 申请日: | 2017-12-29 |
公开(公告)号: | CN107949054A | 公开(公告)日: | 2018-04-20 |
发明(设计)人: | 赵楚韩;张洪明;宋健 | 申请(专利权)人: | 清华大学 |
主分类号: | H04W64/00 | 分类号: | H04W64/00;H04B10/116 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙)11201 | 代理人: | 张润 |
地址: | 10008*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 可见光 室内 高精度 指纹 定位 方法 | ||
技术领域
本发明涉及室内定位技术领域,具体涉及一种基于深度学习可见光室内高精度指纹定位方法。
背景技术
室内定位技术作为当今许多新兴科技的基础,实现室内场景在高精度高速定位越来越引起人们的广泛关注,目前广泛采用的室内定位技术多为射频通信和其他无线通信,与这些通信技术相比使用可见光作为物理信号的定位技术具有功率高,使用范围广,节约能源等优点,具有极大的发展空间。
相关技术中,采用基于到达时间或者到达角度的方法进行室内定位,但这些方法的定位精度设备依赖性强,而且定位精度不高。
发明内容
本发明旨在至少解决上述技术问题之一。
为此,本发明的一个目的在于提出一种基于光指纹的高精度快速室内定位算法。
为了实现上述目的,本发明的实施例公开了一种基于深度学习可见光室内高精度指纹定位方法,S1:通过光通信的方法,为多盏LED灯设计不同的编码,通过调制技术调制所述多盏LED灯从而使所述多盏LED灯分别带有不同的ID信息,并通过时分多路复用的方法将一段周期按照LED灯的数量进行分段,,使得每段只能接收到一盏灯发出的光信号,从而在一个周期的不同时间段得到不同LED灯发出的信号的平均接收功率,其中,在某一位置上接收到的光指纹特征向量为在所述位置上接收到的每盏灯发出的信号平均接受功率;S2:选取参考点,在每个参考点上采集光指纹特征,将采样得到的光指纹特征存入光指纹库,通过深度学习的方法离线训练得到神经网络模型;S3:根据在待测位置接收到的调制信号,通过OOK解调方法计算得到在所述待测位置上接收到的每盏LED灯发出的平均调制信号,将所述平均调制信号输入到所述神经网络模型,根据所述神经网络模型进行位置预测。
另外,此发明还可以具有如下附加的技术特征:
进一步地,步骤S2进一步包括:S201:在每个采样点i记其坐标为(Xi,Yi),在不同时间段采集其接收到平均功率Ii;S202:把接收到的信号输入到控制端,通过OOK解调方法进行解调,计算接收到不同LED灯的光指纹特征向量将以及坐标点(Xi,Yi)记录到指纹数据库;S203:根据信号强度向量和对应的位置坐标训练所述神经网络模型。
进一步地,将采集得到的训练数据,通过神经网络学习得到接收到的信号强度与其所在位置(Xi,Yi)之间的映射关系,所述神经网络模型的每个神经元为一个逻辑回归器,以x1,x2,…,xn为输入,输出为:hw,b(X)=f(WTX),其中,f在实域上被称作激活函数,W为神经网络参数,通过预测值yp得到目标优化函数:
通过梯度下降方法求得神经网络参数W达到最大化目标函数。
本发明实施例的基于可见光的室内高精度指纹定位方法,具体为通过将接收到的信号强度作为光指纹在线建立光指纹库,线上通过将在未知位置接收到的光指纹向量输入到训练好的神经网络中得到待求位置,从而达到精确定位;这种方法减弱了对设备性能的依赖;并将深度学习技术引入了室内定位中;而且在线定位阶段也可以在线更新数据库,进一步优化模型参数;
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明实施例的基于可见光的室内高精度指纹定位方法的流程图;
图2是本发明一个实施例中根据平均信号功率进行位置预测示意图;
图3是本发明一个实施例的室内场景设置LED灯的示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711478434.2/2.html,转载请声明来源钻瓜专利网。