For reliable large-scale quantum computation, quantum error correction (QEC) is essential to protect logical information distributed across multiple physical qubits. Taking advantage of recent advances in deep learning, neural network-based decoders have emerged as a promising approach to improve the reliability of QEC. We propose the qubit-centric transformer (QCT), a novel and universal QEC decoder based on a transformer architecture with a qubit-centric attention mechanism. Our decoder transforms input syndromes from the stabilizer domain into qubit-centric tokens via a specialized embedding strategy. These qubit-centric tokens are processed through attention layers to effectively identify the underlying logical error. Furthermore, we introduce a graph-based masking method that incorporates the topological structure of quantum codes, enforcing attention toward relevant qubit interactions. Across various code distances for surface codes, QCT achieves state-of-the-art decoding performance, significantly outperforming existing neural decoders and the belief propagation (BP) with ordered statistics decoding (OSD) baseline. Notably, QCT achieves a high threshold of 18.1% under depolarizing noise, which closely approaches the theoretical bound of 18.9% and surpasses both the BP+OSD and the minimum-weight perfect matching (MWPM) thresholds. This qubit-centric approach provides a scalable and robust framework for surface code decoding, advancing the path toward fault-tolerant quantum computing.


翻译:为实现可靠的大规模量子计算,量子纠错(QEC)对于保护分布在多个物理量子比特上的逻辑信息至关重要。借助深度学习的最新进展,基于神经网络的解码器已成为提升QEC可靠性的重要途径。我们提出量子比特中心Transformer(QCT),这是一种基于Transformer架构的新型通用QEC解码器,其核心为量子比特中心注意力机制。该解码器通过专门的嵌入策略,将来自稳定子域的输入校验子转换为量子比特中心令牌。这些量子比特中心令牌经由注意力层处理,从而有效识别底层逻辑错误。此外,我们引入了一种基于图的掩码方法,该方法融入了量子码的拓扑结构,强制注意力聚焦于相关的量子比特相互作用。在表面码的不同码距测试中,QCT实现了最先进的解码性能,显著超越了现有神经解码器以及置信传播(BP)结合有序统计解码(OSD)的基线。值得注意的是,QCT在去极化噪声下达到了18.1%的高阈值,该值已接近18.9%的理论界限,并且超越了BP+OSD与最小权重完美匹配(MWPM)的阈值。这种量子比特中心的方法为表面码解码提供了一个可扩展且鲁棒的框架,推动了容错量子计算的发展进程。

0
下载
关闭预览

相关内容

量子增强计算机视觉:超越经典算法
专知会员服务
20+阅读 · 2025年10月9日
年度最佳? ETHZ最新《简化版Transformer》论文
专知会员服务
50+阅读 · 2023年11月29日
Transformer它就是个支持向量机
专知会员服务
38+阅读 · 2023年9月7日
【ICML2023】Transformer编码器表达能力的更严格界限
专知会员服务
31+阅读 · 2023年4月27日
代码注释最详细的Transformer
专知会员服务
113+阅读 · 2022年6月30日
华为等发布《视觉Transformer转换器》综述论文,21页pdf
专知会员服务
86+阅读 · 2020年12月25日
百闻不如一码!手把手教你用Python搭一个Transformer
大数据文摘
18+阅读 · 2019年4月22日
BERT大火却不懂Transformer?读这一篇就够了
大数据文摘
12+阅读 · 2019年1月8日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
最新“指挥控制”领域出版物合集(简介)
专知会员服务
1+阅读 · 今天15:19
面向军事作战需求开发的人工智能(RAIMOND)
专知会员服务
3+阅读 · 今天15:13
软件定义多域战术网络:基础与未来方向(综述)
水下战战术决策中的气象与海洋预报(50页报告)
远程空中优势:新一代超视距导弹的兴起
专知会员服务
1+阅读 · 今天14:45
大语言模型溯因推理的统一分类学与综述
专知会员服务
0+阅读 · 今天12:07
相关VIP内容
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员