Massive multiple-input multiple-output (mMIMO) downlink precoding offers high spectral efficiency but remains challenging to deploy in practice because near-optimal algorithms such as the weighted minimum mean squared error (WMMSE) are computationally expensive, and sensitive to SNR and channel-estimation quality, while existing deep learning (DL)-based solutions often lack robustness and require retraining for each deployment site. This paper proposes a plug-and-play precoder (PaPP), a DL framework with a backbone that can be trained for either fully digital (FDP) or hybrid beamforming (HBF) precoding and reused across sites, transmit-power levels, and with varying amounts of channel estimation error, avoiding the need to train a new model from scratch at each deployment. PaPP combines a high-capacity teacher and a compact student with a self-supervised loss that balances teacher imitation and normalized sum-rate, trained using meta-learning domain-generalization and transmit-power-aware input normalization. Numerical results on ray-tracing data from three unseen sites show that the PaPP FDP and HBF models both outperform conventional and deep learning baselines, after fine-tuning with a small set of local unlabeled samples. Across both architectures, PaPP achieves more than 21$\times$ reduction in modeled computation energy and maintains good performance under channel-estimation errors, making it a practical solution for energy-efficient mMIMO precoding.


翻译:大规模多输入多输出(mMIMO)下行链路预编码能够提供高频谱效率,但在实际部署中仍面临挑战:诸如加权最小均方误差(WMMSE)等接近最优的算法计算开销大,且对信噪比和信道估计质量敏感;而现有基于深度学习(DL)的方案往往缺乏鲁棒性,且需要在每个部署站点重新训练。本文提出一种即插即用预编码器(PaPP),这是一种深度学习框架,其主干网络可针对全数字(FDP)或混合波束赋形(HBF)预编码进行训练,并可在不同站点、不同发射功率水平以及存在不同程度信道估计误差的情况下复用,从而避免了在每个部署点从头训练新模型的需求。PaPP结合了一个高容量的教师网络和一个紧凑的学生网络,通过一种平衡教师模仿与归一化和速率的自监督损失函数进行训练,并采用元学习领域泛化与发射功率感知的输入归一化方法。在三个未见站点的射线追踪数据上的数值结果表明,在使用少量本地未标记样本进行微调后,PaPP的FDP和HBF模型均优于传统方法及深度学习基线。在两种架构下,PaPP实现了超过21倍的建模计算能耗降低,并在信道估计误差下保持良好的性能,使其成为能效型大规模MIMO预编码的实用解决方案。

0
下载
关闭预览

相关内容

【博士论文】高效且有效的基础大型多模态模型学习
专知会员服务
40+阅读 · 2024年10月21日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
DeepMind开源最牛无监督学习BigBiGAN预训练模型
新智元
10+阅读 · 2019年10月10日
100+前沿“拿来即用”开源深度学习模型汇总分享
深度学习与NLP
11+阅读 · 2019年8月29日
【学界】DeepMind论文:深度压缩感知,新框架提升GAN性能
GAN生成式对抗网络
14+阅读 · 2019年5月23日
深度学习时代的图模型,清华发文综述图网络
GAN生成式对抗网络
13+阅读 · 2018年12月23日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关VIP内容
【博士论文】高效且有效的基础大型多模态模型学习
专知会员服务
40+阅读 · 2024年10月21日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员