Information Bottleneck (IB) is widely used, but in deep learning, it is usually implemented through tractable surrogates, such as variational bounds or neural mutual information (MI) estimators, rather than directly controlling the MI I(X;Z) itself. The looseness and estimator-dependent bias can make IB "compression" only indirectly controlled and optimization fragile. We revisit the IB problem through the lens of information geometry and propose a \textbf{Geo}metric \textbf{I}nformation \textbf{B}ottleneck (\textbf{GeoIB}) that dispenses with mutual information (MI) estimation. We show that I(X;Z) and I(Z;Y) admit exact projection forms as minimal Kullback-Leibler (KL) distances from the joint distributions to their respective independence manifolds. Guided by this view, GeoIB controls information compression with two complementary terms: (i) a distribution-level Fisher-Rao (FR) discrepancy, which matches KL to second order and is reparameterization-invariant; and (ii) a geometry-level Jacobian-Frobenius (JF) term that provides a local capacity-type upper bound on I(Z;X) by penalizing pullback volume expansion of the encoder. We further derive a natural-gradient optimizer consistent with the FR metric and prove that the standard additive natural-gradient step is first-order equivalent to the geodesic update. We conducted extensive experiments and observed that the GeoIB achieves a better trade-off between prediction accuracy and compression ratio in the information plane than the mainstream IB baselines on popular datasets. GeoIB improves invariance and optimization stability by unifying distributional and geometric regularization under a single bottleneck multiplier. The source code of GeoIB is released at "https://anonymous.4open.science/r/G-IB-0569".


翻译:信息瓶颈(IB)方法被广泛应用,但在深度学习中,其通常通过可处理的替代目标实现,例如变分界或神经互信息(MI)估计器,而非直接控制互信息 I(X;Z) 本身。这些替代目标的松弛性及估计器相关偏差可能导致 IB 的“压缩”仅被间接控制,且优化过程脆弱。本文从信息几何的视角重新审视 IB 问题,提出了一种无需互信息(MI)估计的**几何信息瓶颈(GeoIB)**。我们证明了 I(X;Z) 和 I(Z;Y) 具有精确的投影形式,即联合分布到其各自独立流形的最小 Kullback-Leibler(KL)距离。基于此视角,GeoIB 通过两个互补项控制信息压缩:(i) 分布层面的 Fisher-Rao(FR)差异,它与 KL 散度在二阶匹配且具有重参数化不变性;(ii) 几何层面的 Jacobian-Frobenius(JF)项,通过惩罚编码器的拉回体积扩张,为 I(Z;X) 提供了一个局部容量型上界。我们进一步推导了与 FR 度量一致的自然梯度优化器,并证明了标准的加性自然梯度步长在一阶意义上等价于测地线更新。我们进行了广泛的实验,观察到在多个流行数据集上,GeoIB 在信息平面中比主流 IB 基线方法实现了预测精度与压缩率之间更好的权衡。GeoIB 通过将分布正则化与几何正则化统一在单个瓶颈乘子下,提升了不变性与优化稳定性。GeoIB 的源代码发布于 "https://anonymous.4open.science/r/G-IB-0569"。

0
下载
关闭预览

相关内容

【ICML2025】学习最优多模态信息瓶颈表示
专知会员服务
11+阅读 · 2025年5月28日
专知会员服务
26+阅读 · 2021年9月9日
【AAAI2021】信息瓶颈和有监督表征解耦
专知会员服务
21+阅读 · 2021年1月27日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
23+阅读 · 2020年10月13日
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
论文浅尝 | GraphIE:基于图的信息抽取框架
开放知识图谱
17+阅读 · 2019年6月2日
【学界】DeepMind论文:深度压缩感知,新框架提升GAN性能
GAN生成式对抗网络
14+阅读 · 2019年5月23日
从信息瓶颈理论一瞥机器学习的“大一统理论”
基于信息理论的机器学习
专知
22+阅读 · 2017年11月23日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员