Belief propagation (BP) decoding of quantum low density parity check (QLDPC) codes is often implemented using overcomplete stabilizer (OS) representations, where redundant parity checks are introduced to improve finite length performance. Decoder behavior for such representations is governed primarily by finite iteration dynamics rather than asymptotic code properties. These dynamics are known to critically depend on the initialization of the decoder. In this paper, we investigate the impact of mismatched log likelihood ratios (LLRs) used for BP initialization on the performance of QLDPC codes with OS representations. Our results demonstrate that initial LLR mismatch has a strong influence on the frame error rate (FER), particularly in the low noise regime. We also show that the optimal performance is not sharply localized: the FER remains largely insensitive over an extended region of mismatched LLRs. This behavior motivates an interpretation of LLR mismatch as a regularization control parameter rather than a quantity that must be precisely matched to the quantum channel.


翻译:量子低密度奇偶校验(QLDPC)码的置信传播(BP)解码常采用过完备稳定子(OS)表示实现,即引入冗余奇偶校验以改善有限码长性能。此类表示下的解码器行为主要受有限迭代动力学而非渐近码特性支配。已知这些动力学关键取决于解码器的初始化方式。本文研究了BP初始化所用对数似然比(LLR)失配对采用OS表示的QLDPC码性能的影响。结果表明:初始LLR失配对帧错误率(FER)具有显著影响,尤其在低噪声区域。我们还发现最优性能并非尖锐定位:在较宽的LLR失配区间内,FER基本保持不敏感。该现象促使我们将LLR失配解释为一种正则化控制参数,而非必须与量子信道精确匹配的物理量。

0
下载
关闭预览

相关内容

GPT-4在97轮对话中探索世界难题,给出P≠NP结论
专知会员服务
27+阅读 · 2023年9月15日
生成先验的信号恢复
专知会员服务
22+阅读 · 2023年1月5日
编码计算研究综述
专知会员服务
22+阅读 · 2021年10月26日
专知会员服务
32+阅读 · 2021年1月9日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
23+阅读 · 2020年10月13日
再谈人脸识别损失函数综述
人工智能前沿讲习班
14+阅读 · 2019年5月7日
如何理解模型的过拟合与欠拟合,以及如何解决?
七月在线实验室
12+阅读 · 2019年4月23日
从信息论的角度来理解损失函数
深度学习每日摘要
17+阅读 · 2019年4月7日
详解GAN的谱归一化(Spectral Normalization)
PaperWeekly
11+阅读 · 2019年2月13日
用PyTorch实现各种GANs(附论文和代码地址)
放弃 RNN/LSTM 吧,因为真的不好用!望周知~
人工智能头条
19+阅读 · 2018年4月24日
一次 PyTorch 的踩坑经历,以及如何避免梯度成为NaN
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
VIP会员
相关资讯
再谈人脸识别损失函数综述
人工智能前沿讲习班
14+阅读 · 2019年5月7日
如何理解模型的过拟合与欠拟合,以及如何解决?
七月在线实验室
12+阅读 · 2019年4月23日
从信息论的角度来理解损失函数
深度学习每日摘要
17+阅读 · 2019年4月7日
详解GAN的谱归一化(Spectral Normalization)
PaperWeekly
11+阅读 · 2019年2月13日
用PyTorch实现各种GANs(附论文和代码地址)
放弃 RNN/LSTM 吧,因为真的不好用!望周知~
人工智能头条
19+阅读 · 2018年4月24日
一次 PyTorch 的踩坑经历,以及如何避免梯度成为NaN
相关基金
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员