A mathematical framework for information-theoretic analysis is established, with a new viewpoint of describing transmitted messages and communication channels by the nonlinear expectation theory, beyond the framework of classical probability theory. The major motivation of this research is to emphasize the probabilistic distribution uncertainty within the ever increasingly complex communication networks, where random phenomena are often nonstationary, heterogeneous, and cannot be characterized by a single probability distribution. Based on the nonlinear expectation theory, in this paper we first explicitly define several fundamental concepts, such as nonlinear information entropy, nonlinear joint entropy, nonlinear conditional entropy and nonlinear mutual information, and establish their basic properties. Secondly, by using the strong law of large numbers under sublinear expectations, we propose a nonlinear source coding theorem, which shows that the nonlinear information entropy is the upper bound of the achievable coding rate of sources whose distributions are uncertain under the maximum error probability criterion, and determines a cluster point of the coding rate of such sources under the minimum error probability criterion. Thirdly, we propose a nonlinear channel coding theorem, which gives the explicit expression of the upper bound under the maximum error probability criterion and a cluster point under the minimum error probability criterion, respectively, for the achievable coding rate of communication channels whose distributions are uncertain. Additionally, we propose a nonlinear rate-distortion source coding theorem, proving that the rate distortion function based on the nonlinear mutual information is a cluster point of the lossy compression performance of uncertain-distribution sources under the minimum expected distortion criterion.


翻译:本文建立了一个信息论分析的数学框架,通过非线性期望理论这一新视角来描述传输消息和通信信道,超越了经典概率论的框架。本研究的主要动机在于强调日益复杂的通信网络中存在的概率分布不确定性,其中的随机现象往往是非平稳、异质的,无法用单一概率分布来刻画。基于非线性期望理论,本文首先明确定义了若干基本概念,如非线性信息熵、非线性联合熵、非线性条件熵和非线性互信息,并建立了它们的基本性质。其次,利用次线性期望下的强大数定律,我们提出了非线性信源编码定理,该定理表明非线性信息熵是在最大错误概率准则下分布不确定信源可达编码速率的上界,并确定了在最小错误概率准则下此类信源编码速率的聚点。再次,我们提出了非线性信道编码定理,分别给出了在最大错误概率准则下分布不确定通信信道可达编码速率的上界显式表达式,以及在最小错误概率准则下的一个聚点。此外,我们提出了非线性率失真信源编码定理,证明了基于非线性互信息的率失真函数是在最小期望失真准则下分布不确定信源有损压缩性能的一个聚点。

0
下载
关闭预览

相关内容

本话题关于日常用语「概率」,用于讨论生活中的运气、机会,及赌博、彩票、游戏中的「技巧」。关于抽象数学概念「概率」的讨论,请转 概率(数学)话题。
【ETHZ博士论文】分布不确定性下的决策,234页pdf
专知会员服务
49+阅读 · 2024年4月5日
【干货书】基于R的非线性时间序列分析,510页pdf
专知会员服务
47+阅读 · 2023年6月12日
【2023新书】数据科学中的信息论,417页pdf
专知会员服务
148+阅读 · 2023年5月6日
【干货书】数据科学中的信息理论方法
专知会员服务
97+阅读 · 2022年6月27日
【经典书】信息论原理,774页pdf
专知会员服务
265+阅读 · 2021年3月22日
异质信息网络分析与应用综述,软件学报-北京邮电大学
【硬核书】不完全信息决策理论,467页pdf
专知会员服务
367+阅读 · 2020年6月24日
综述 | 异质信息网络分析与应用综述
专知
27+阅读 · 2020年8月8日
「PPT」深度学习中的不确定性估计
专知
27+阅读 · 2019年7月20日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
从香农熵到手推KL散度:一文带你纵览机器学习中的信息论
算法与数学之美
10+阅读 · 2018年1月14日
基于信息理论的机器学习
专知
22+阅读 · 2017年11月23日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
VIP会员
最新内容
面向军事作战需求开发的人工智能(RAIMOND)
专知会员服务
1+阅读 · 39分钟前
软件定义多域战术网络:基础与未来方向(综述)
远程空中优势:新一代超视距导弹的兴起
专知会员服务
1+阅读 · 今天14:45
大语言模型溯因推理的统一分类学与综述
专知会员服务
0+阅读 · 今天12:07
美/以-伊战争:停火与后续情景与影响分析
专知会员服务
3+阅读 · 4月11日
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员