This paper introduces an indoor localization method using fixed reflector objects within the environment, leveraging a base station (BS) equipped with Angle of Arrival (AoA) and Time of Arrival (ToA) measurement capabilities. The localization process includes two phases. In the offline phase, we identify effective reflector points within a specific region using significantly fewer test points than typical methods. In the online phase, we solve a maximization problem to locate users based on BS measurements and offline phase information. We introduce the reflectivity parameter (\(n_r\)), which quantifies the typical number of first-order reflection paths from the transmitter to the receiver, demonstrating its impact on localization accuracy. The log-scale accuracy ratio (\(R_a\)) is defined as the logarithmic function of the localization area divided by the localization ambiguity area, serving as an accuracy indicator. We show that in scenarios where the Signal-to-Noise Ratio (SNR) approaches infinity, without a line of sight (LoS) link, \(R_a\) is upper-bounded by \(n_r \log_{2}\left(1 + \frac{\mathrm{Vol}(\mathcal{S}_A)}{\mathrm{Vol}(\mathcal{S}_{\epsilon}(\mathcal{M}_s))}\right)\). Here, \(\mathrm{Vol}(\mathcal{S}_A)\) and \(\mathrm{Vol}(\mathcal{S}_{\epsilon}(\mathcal{M}_s))\) represent the areas of the localization region and the area containing all reflector points with a probability of at least \(1 - \epsilon\), respectively.


翻译:本文提出一种利用环境中固定反射体进行室内定位的方法,该方法基于配备到达角与到达时间测量能力的基站。定位过程包含两个阶段。离线阶段,我们使用远少于典型方法的测试点来识别特定区域内的有效反射点。在线阶段,我们通过求解最大化问题,结合基站测量值与离线阶段信息实现用户定位。我们引入了反射率参数(\(n_r\))来量化从发射端到接收端的一阶反射路径的典型数量,并论证了其对定位精度的影响。定义对数尺度精度比(\(R_a\))为定位区域面积与定位模糊区域面积之比的对数函数,以此作为精度指标。我们证明,在信噪比趋近无穷大且不存在视距链路的场景下,\(R_a\)的上界为 \(n_r \log_{2}\left(1 + \frac{\mathrm{Vol}(\mathcal{S}_A)}{\mathrm{Vol}(\mathcal{S}_{\epsilon}(\mathcal{M}_s))}\right)\)。其中,\(\mathrm{Vol}(\mathcal{S}_A)\) 和 \(\mathrm{Vol}(\mathcal{S}_{\epsilon}(\mathcal{M}_s))\) 分别表示定位区域的面积以及包含所有反射点(概率至少为 \(1 - \epsilon\))的区域面积。

0
下载
关闭预览

相关内容

机器学习系统设计系统评估标准
Linux导论,Introduction to Linux,96页ppt
专知会员服务
82+阅读 · 2020年7月26日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
32+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
164+阅读 · 2019年10月12日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
24+阅读 · 2024年2月23日
VIP会员
最新内容
【NTU博士论文】3D人体动作生成
专知会员服务
1+阅读 · 今天14:48
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
7+阅读 · 今天8:46
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
9+阅读 · 今天5:37
《多域作战面临复杂现实》
专知会员服务
7+阅读 · 今天5:35
《印度的多域作战:条令与能力发展》报告
专知会员服务
3+阅读 · 今天5:24
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员