Accurate cross-band channel prediction is essential for 6G networks, particularly in the upper mid-band (FR3, 7--24 GHz), where penetration loss and blockage are severe. Although ray tracing (RT) provides high-fidelity modeling, it remains computationally intensive, and high-frequency data acquisition is costly. To address these challenges, we propose CIR-UNext, a deep learning framework designed to predict 7 GHz channel impulse responses (CIRs) by leveraging abundant 3.5 GHz CIRs. The framework integrates an RT-based dataset pipeline with attention U-Net (AU-Net) variants for gain and phase prediction. The proposed AU-Net-Aux model achieves a median gain error of 0.58 dB and a phase prediction error of 0.27 rad on unseen complex environments. Furthermore, we extend CIR-UNext into a foundation model, Channel2ComMap, for throughput prediction in MIMO-OFDM systems, demonstrating superior performance compared with existing approaches. Overall, CIR-UNext provides an efficient and scalable solution for cross-band prediction, enabling applications such as localization, beam management, digital twins, and intelligent resource allocation in 6G networks.


翻译:精确的跨频段信道预测对于6G网络至关重要,尤其是在中高频段(FR3,7--24 GHz),该频段的穿透损耗与遮挡效应极为显著。尽管射线追踪(RT)能提供高保真度的建模,但其计算开销巨大,且高频数据采集成本高昂。为应对这些挑战,我们提出了CIR-UNext——一种深度学习框架,旨在利用丰富的3.5 GHz信道冲激响应(CIR)数据来预测7 GHz频段的CIR。该框架将基于RT的数据集处理流程与注意力U-Net(AU-Net)的变体相结合,分别用于增益与相位预测。所提出的AU-Net-Aux模型在未见过的复杂环境中实现了0.58 dB的中值增益误差与0.27弧度的相位预测误差。此外,我们将CIR-UNext扩展为基础模型Channel2ComMap,用于MIMO-OFDM系统的吞吐量预测,其性能优于现有方法。总体而言,CIR-UNext为跨频段预测提供了高效且可扩展的解决方案,可支持6G网络中的定位、波束管理、数字孪生及智能资源分配等应用。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员