We study the universal attainability of the expurgated error exponent for discrete memoryless channels (DMCs). While the random-coding exponent is known to be universally attainable via maximum mutual information (MMI) decoding for DMCs, it remains open whether the expurgated exponent can be attained universally. We show that this is not the case in general. Specifically, we construct a family of DMCs for which no single sequence of codes can attain the expurgated exponent simultaneously for all channels in the family, even at rate zero. In addition, for the same channel family, we show that MMI decoding fails to achieve the expurgated exponent for any channel in the family.


翻译:我们研究了离散无记忆信道(DMC)中删减误差指数的普遍可达性。尽管已知随机编码指数可通过最大互信息(MMI)译码在DMC中普遍达到,但删减指数是否能够普遍达到仍然悬而未决。我们证明这通常并不成立。具体而言,我们构建了一类DMC信道族,使得不存在任何单一码序列能够在该信道族中的所有信道上同时达到删减指数,即使在零速率下也是如此。此外,针对同一信道族,我们证明了MMI译码无法在该信道族中的任何信道上达到删减指数。

0
下载
关闭预览

相关内容

《分布式多智能体强化学习的编码》加州大学等
专知会员服务
55+阅读 · 2022年11月2日
专知会员服务
23+阅读 · 2021年6月22日
专知会员服务
32+阅读 · 2021年1月9日
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
换个角度看GAN:另一种损失函数
机器之心
16+阅读 · 2019年1月1日
异常检测的阈值,你怎么选?给你整理好了...
机器学习算法与Python学习
10+阅读 · 2018年9月19日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
放弃 RNN/LSTM 吧,因为真的不好用!望周知~
人工智能头条
19+阅读 · 2018年4月24日
一次 PyTorch 的踩坑经历,以及如何避免梯度成为NaN
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
最新内容
《图世界模型:概念、分类体系与未来方向》
专知会员服务
8+阅读 · 5月1日
Palantir AIP平台:连接智能体与决策
专知会员服务
15+阅读 · 5月1日
《美海军软件测试战略》90页slides
专知会员服务
11+阅读 · 5月1日
面向具身智能与机器人仿真的三维生成:综述
专知会员服务
11+阅读 · 4月30日
相关VIP内容
《分布式多智能体强化学习的编码》加州大学等
专知会员服务
55+阅读 · 2022年11月2日
专知会员服务
23+阅读 · 2021年6月22日
专知会员服务
32+阅读 · 2021年1月9日
相关资讯
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
换个角度看GAN:另一种损失函数
机器之心
16+阅读 · 2019年1月1日
异常检测的阈值,你怎么选?给你整理好了...
机器学习算法与Python学习
10+阅读 · 2018年9月19日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
放弃 RNN/LSTM 吧,因为真的不好用!望周知~
人工智能头条
19+阅读 · 2018年4月24日
一次 PyTorch 的踩坑经历,以及如何避免梯度成为NaN
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员