[发明专利]一种室内定位方法及装置在审
申请号: | 201710067277.X | 申请日: | 2017-02-06 |
公开(公告)号: | CN108398127A | 公开(公告)日: | 2018-08-14 |
发明(设计)人: | 陈鄂平 | 申请(专利权)人: | 陈鄂平 |
主分类号: | G01C21/20 | 分类号: | G01C21/20;G06K9/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 102600 北京市大兴区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 室内定位 用户所在位置 目标监控 摄像装置 响应消息 移动设备 匹配度 发送 定位请求消息 卷积神经网络 定位客户端 定位准确率 定位模型 定位用户 监控画面 人脸特征 人脸图像 室内位置 预先设置 直观 携带 部署 | ||
1.一种室内定位方法,其特征在于,应用在定位服务器上,所述方法包括:
当接收到移动设备通过定位客户端发送的定位请求消息时,通过卷积神经网络计算每一个摄像装置的当前监控画面中人脸图像与待定位用户的人脸特征的匹配度;
根据所述每一个摄像装置的当前监控画面中人脸图像与待定位用户的人脸特征的匹配度,确定用于定位所述待定位用户所在位置的目标监控画面;
根据所述目标监控画面和预先设置的摄像装置定位模型,确定所述待定位用户所在位置;
向移动设备发送第一响应消息,所述第一响应消息中携带有所述待定位用户所在位置。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于预设数量的人脸样本对所述卷积神经网络进行训练;
在确定所述卷积神经网络识别用户的准确度大于预设阈值时,停止对所述卷积神经网络的训练,基于所训练的卷积神经网络执行所述通过卷积神经网络计算每一个摄像装置的当前监控画面中人脸图像与待定位用户的人脸特征的匹配度的操作。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于每一个摄像装置所在位置、监控范围以及预设的图像处理算法,建立每一个摄像装置的摄像装置定位模型,所述摄像装置定位模型用于基于人脸在监控画面中的显示位置确定用户位置。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当接收到移动设备通过定位客户端发送的导航请求消息时,从室内地图中确定从用户的当前位置移动到目标位置的移动路线;
向所述移动设备发送所述移动路线,并且控制所述定位客户端在室内地图上显示所述移动路线。
5.根据权利要求1所述的方法,其特征在于,所述根据所述每一个摄像装置的当前监控画面中人脸图像与待定位用户的人脸特征的匹配度,确定用于定位所述待定位用户所在位置的目标监控画面,包括:
确定是否有摄像装置的当前监控画面中人脸图像与待定位用户的人脸特征的匹配度超过预设匹配度阈值;
当有摄像装置的当前监控画面中人脸图像与待定位用户的人脸特征的匹配度超过预设匹配度阈值时,将所述匹配度的最大值对应的当前监控画面确定为目标监控画面;
当所有摄像装置的当前监控画面中人脸图像与待定位用户的人脸特征的匹配度都不超过预设匹配度阈值时,向所述定位客户端发送定位指示消息,所述定位指示消息中携带有匹配度最大的预设个数的当前监控画面;
根据所述移动设备根据所述定位指示消息返回的第二响应消息确定目标监控画面。
6.根据权利要求5所述的方法,其特征在于,所述根据所述移动设备根据所述定位指示消息返回的第二响应消息确定目标监控画面,包括:
当所述第二响应消息中携带有监控画面时,将所述响应消息中携带的监控画面确定为目标监控画面;或者,
当所述第二响应消息中没有携带监控画面时,向所述定位客户端发送移动至监控范围的移动指示消息;
在有摄像装置监控到用户移动到监控范围内之后,将所述摄像装置采集的监控画面确定为目标监控画面。
7.一种室内定位方法,其特征在于,应用在移动设备上,所述方法包括:
向定位服务器发送定位请求消息,所述定位请求消息中携带有用户帐号的标识信息;
当接收到所述定位服务器根据所述定位请求消息返回的第一响应消息时,根据所述第一响应消息确定所述待定位用户所在位置;
在室内地图上对应所述待定位用户所在位置显示预设图标,所述预设图标用于标识所述待定位用户所在位置。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
向定位服务器发送导航请求消息,所述导航请求消息中携带有目标位置;
接收到移动设备根据所述导航请求消息返回的移动路线时,在室内地图上显示所述移动路线。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于陈鄂平,未经陈鄂平许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710067277.X/1.html,转载请声明来源钻瓜专利网。