Maximum-likelihood (ML) decoding for arbitrary block codes remains fundamentally hard, with worst-case time complexity-measured by the total number of multiplications-being no better than straightforward exhaustive search, which requires $q^{k} n$ operations for an $[n,k]_q$ code. This paper introduces a simple, code-agnostic framework that reduces the worst-case complexity by a factor of $n$, down to $q^{k}$ operations, a highly desirable reduction in practice. The result holds for both linear and nonlinear block codes over general memoryless channels and under both hard-decision and soft-decision decoding. It naturally extends to intersymbol-interference (ISI) channels and ML list decoding with only a negligible increase in complexity. Our core insight is that, upon receipt of each sequence at the receiver, the conditional probability of that sequence for each codeword in the codebook (i.e., the \emph{likelihood}) can be expressed as the inner product of two carefully constructed vectors -- the first depending on the received sequence, and the second on that codeword itself. As a result, evaluating the likelihoods for all codewords in the codebook reduces to a single vector-matrix multiplication, and ML decoding (MLD) becomes the simple task of picking the maximum entry in the resulting vector. The only non-trivial cost lies in the vector-matrix product. However, our matrix construction allows the use of the Mailman algorithm to reduce this cost. This time reduction is achieved at the cost of high space complexity, requiring $\mathcal{O}(q^{k+1} n)$ space to store the pre-computed codebook matrix.


翻译:针对任意分组码的最大似然解码本质上仍然困难,其最坏情况时间复杂度——以乘法总次数衡量——并不优于直接的穷举搜索,后者对$[n,k]_q$码需要$q^{k} n$次运算。本文提出一种简单、与码型无关的框架,将最坏情况复杂度降低$n$倍至$q^{k}$次运算,这在实践中是极有价值的改进。该结果适用于一般无记忆信道上的线性和非线性分组码,且同时适用于硬判决与软判决解码。该方法可自然扩展至符号间干扰信道和最大似然列表解码,且复杂度仅可忽略地增加。我们的核心洞见在于:接收端收到每个序列后,码本中每个码字对该序列的条件概率(即似然度)可表示为两个精心构造向量的内积——第一个向量取决于接收序列,第二个向量取决于码字本身。因此,计算码本中所有码字的似然度可简化为一次向量-矩阵乘法,而最大似然解码则简化为选取结果向量中的最大元素。唯一的非平凡开销在于向量-矩阵乘积运算。然而,我们的矩阵构造允许使用Mailman算法来降低此开销。这种时间复杂度的降低以高空间复杂度为代价,需要$\mathcal{O}(q^{k+1} n)$空间来存储预计算的码本矩阵。

0
下载
关闭预览

相关内容

专知会员服务
22+阅读 · 2021年9月23日
【AAAI2021】对比聚类,Contrastive Clustering
专知会员服务
78+阅读 · 2021年1月30日
pytorch中六种常用的向量相似度评估方法
极市平台
22+阅读 · 2021年12月9日
【AAAI2021】对比聚类,Contrastive Clustering
专知
26+阅读 · 2021年1月30日
从最大似然到EM算法:一致的理解方式
PaperWeekly
19+阅读 · 2018年3月19日
最新|深度离散哈希算法,可用于图像检索!
全球人工智能
14+阅读 · 2017年12月15日
各种相似性度量及Python实现
机器学习算法与Python学习
11+阅读 · 2017年7月6日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员