We propose the Soft Graph Transformer (SGT), a soft-input-soft-output neural architecture designed for MIMO detection. While Maximum Likelihood (ML) detection achieves optimal accuracy, its exponential complexity makes it infeasible in large systems, and conventional message-passing algorithms rely on asymptotic assumptions that often fail in finite dimensions. Recent Transformer-based detectors show strong performance but typically overlook the MIMO factor graph structure and cannot exploit prior soft information. SGT addresses these limitations by combining self-attention, which encodes contextual dependencies within symbol and constraint subgraphs, with graph-aware cross-attention, which performs structured message passing across subgraphs. Its soft-input interface allows the integration of auxiliary priors, producing effective soft outputs while maintaining computational efficiency. Experiments demonstrate that SGT achieves near-ML performance and offers a flexible and interpretable framework for receiver systems that leverage soft priors.


翻译:我们提出了软图Transformer(SGT),一种专为MIMO检测设计的软输入-软输出神经架构。虽然最大似然(ML)检测能达到最优精度,但其指数级复杂度使其在大型系统中不可行,而传统的消息传递算法依赖于渐近假设,这些假设在有限维度下常常失效。近期基于Transformer的检测器展现出强大性能,但通常忽略了MIMO因子图结构,且无法利用先验软信息。SGT通过结合自注意力机制(用于编码符号子图和约束子图内的上下文依赖关系)与图感知交叉注意力机制(用于在子图间执行结构化消息传递),解决了这些局限性。其软输入接口允许集成辅助先验信息,在保持计算效率的同时产生有效的软输出。实验表明,SGT实现了接近ML的性能,并为利用软先验的接收机系统提供了一个灵活且可解释的框架。

0
下载
关闭预览

相关内容

「图Transformers」综述
专知会员服务
28+阅读 · 2024年7月16日
【IJCAI2024】Gradformer:具有指数衰减的图变换器
专知会员服务
17+阅读 · 2024年4月25日
Graph Transformer近期进展
专知会员服务
65+阅读 · 2023年1月5日
专知会员服务
46+阅读 · 2021年6月1日
【Tutorial】计算机视觉中的Transformer,98页ppt
专知
21+阅读 · 2021年10月25日
英伟达Faster Transformer:作者带你揭秘BERT优化
机器之心
14+阅读 · 2019年9月18日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月5日
VIP会员
相关VIP内容
「图Transformers」综述
专知会员服务
28+阅读 · 2024年7月16日
【IJCAI2024】Gradformer:具有指数衰减的图变换器
专知会员服务
17+阅读 · 2024年4月25日
Graph Transformer近期进展
专知会员服务
65+阅读 · 2023年1月5日
专知会员服务
46+阅读 · 2021年6月1日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员