Vehicle-to-Everything (V2X) communication, which includes Vehicle-to-Infrastructure (V2I), Vehicle-to-Vehicle (V2V), and Vehicle-to-Pedestrian (V2P) networks, is gaining significant attention due to the rise of connected and autonomous vehicles. V2X systems require diverse Quality of Service (QoS) provisions, with V2V communication demanding stricter latency and reliability compared to V2I. The 5G New Radio-V2X (NR-V2X) standard addresses these needs using multi-numerology Orthogonal Frequency Division Multiple Access (OFDMA), which allows for flexible allocation of radio resources. However, V2I and V2V users sharing the same radio resources leads to interference, necessitating efficient power and resource allocation. In this work, we propose a novel resource allocation and sharing algorithm for 5G-based V2X systems. Our approach first groups Resource Blocks (RBs) into Resource Chunks (RCs) and allocates them to V2I users using the Gale-Shapley stable matching algorithm. Power is then allocated to RCs to facilitate efficient resource sharing between V2I and V2V users through a bisection search method. Finally, the Gale-Shapley algorithm is used to pair V2I and V2V users, maintaining low computational complexity while ensuring high performance. Simulation results demonstrate that our proposed Gale-Shapley Resource Allocation with Gale-Shapley Sharing (GSRAGS) achieves competitive performance with lower complexity compared to existing works while effectively meeting the QoS demands of V2X communication systems.


翻译:车联网(V2X)通信,包括车与基础设施(V2I)、车与车(V2V)以及车与行人(V2P)网络,随着互联与自动驾驶车辆的兴起正受到广泛关注。V2X系统需要多样化的服务质量(QoS)保障,其中V2V通信相比V2I对时延和可靠性有更严格的要求。5G新空口-V2X(NR-V2X)标准通过采用多参数集正交频分多址(OFDMA)技术来满足这些需求,该技术允许灵活分配无线资源。然而,V2I与V2V用户共享相同无线资源会导致干扰,因此需要高效的功率与资源分配。本文提出了一种面向5G V2X系统的新型资源分配与共享算法。我们的方法首先将资源块(RB)分组为资源块组(RC),并利用Gale-Shapley稳定匹配算法将其分配给V2I用户。随后通过二分搜索法为RC分配功率,以促进V2I与V2V用户之间的高效资源共享。最后,再次运用Gale-Shapley算法对V2I与V2V用户进行配对,在保证高性能的同时维持较低的计算复杂度。仿真结果表明,与现有工作相比,我们提出的基于Gale-Shapley资源分配与Gale-Shapley共享(GSRAGS)的算法在有效满足V2X通信系统QoS需求的同时,能以更低的复杂度实现具有竞争力的性能。

0
下载
关闭预览

相关内容

【ACL2020】多模态信息抽取,365页ppt
专知会员服务
151+阅读 · 2020年7月6日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
32+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
164+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
1+阅读 · 2024年12月18日
Arxiv
15+阅读 · 2019年3月16日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员