We characterize information as risk reduction between knowledge states represented by partitions of the underlying probability space. Entropy corresponds to risk reduction from no (or partial) knowledge to full knowledge about a random variable, while information corresponds to risk reduction from no (or partial) knowledge to partial knowledge. This applies to any information measure that is based on expected loss minimization, such as Bregman information, with Shannon information and variance as prominent examples. In each case, fundamental properties like the chain rule, non-negativity, and the relationship between information and divergence are preserved. Because partitions form a lattice under refinement, our general treatment reveals how information can be decomposed into redundant, unique, and synergistic contributions, a question important in applications from neuroscience to machine learning, yet one for which existing formulations lack consensus on foundational definitions and can violate basic properties such as the chain rule or non-negativity. Redundancy corresponds to Aumann's common knowledge, synergy to the gap between separately and jointly observed sources, and unique information is necessarily path-dependent, taking different values depending on what is already known. The resulting partial information decomposition is grounded directly in probability theory, avoids treating scalar information quantities as primitive compositional objects, and yields non-negative terms by construction.


翻译:我们将信息表征为底层概率空间划分所表示的知识状态之间的风险降低。熵对应于从对随机变量无(或部分)知识到完全知识的风险降低,而信息则对应于从无(或部分)知识到部分知识的风险降低。这适用于任何基于期望损失最小化的信息度量,例如Bregman信息,其中香农信息与方差是突出实例。在每种情况下,链式法则、非负性以及信息与散度关系等基本性质均得以保持。由于划分在细化关系下构成格结构,我们的通用处理揭示了信息如何能被分解为冗余、独特与协同贡献,这一从神经科学到机器学习的应用中至关重要的问题,其现有表述在基础定义上缺乏共识,且可能违反链式法则或非负性等基本性质。冗余对应奥曼的公共知识,协同对应分别观测与联合观测源之间的差距,而独特信息必然具有路径依赖性,其取值取决于已有知识。由此得到的部分信息分解直接植根于概率论,避免将标量信息量视为原始组合对象,并通过构造方式产生非负项。

0
下载
关闭预览

相关内容

【2023新书】数据科学中的信息论,417页pdf
专知会员服务
148+阅读 · 2023年5月6日
【干货书】信息论与编码,517页pdf
专知会员服务
90+阅读 · 2022年7月20日
专知会员服务
56+阅读 · 2021年8月29日
【经典书】信息论与统计: 教程,116页pdf
专知会员服务
62+阅读 · 2021年3月27日
专知会员服务
119+阅读 · 2021年3月23日
【经典书】信息论原理,774页pdf
专知会员服务
265+阅读 · 2021年3月22日
从信息论的角度来理解损失函数
深度学习每日摘要
17+阅读 · 2019年4月7日
从信息瓶颈理论一瞥机器学习的“大一统理论”
从香农熵到手推KL散度:一文带你纵览机器学习中的信息论
算法与数学之美
10+阅读 · 2018年1月14日
基于信息理论的机器学习
专知
22+阅读 · 2017年11月23日
【直观详解】信息熵、交叉熵和相对熵
机器学习研究会
10+阅读 · 2017年11月7日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2月10日
VIP会员
相关VIP内容
【2023新书】数据科学中的信息论,417页pdf
专知会员服务
148+阅读 · 2023年5月6日
【干货书】信息论与编码,517页pdf
专知会员服务
90+阅读 · 2022年7月20日
专知会员服务
56+阅读 · 2021年8月29日
【经典书】信息论与统计: 教程,116页pdf
专知会员服务
62+阅读 · 2021年3月27日
专知会员服务
119+阅读 · 2021年3月23日
【经典书】信息论原理,774页pdf
专知会员服务
265+阅读 · 2021年3月22日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员