The Moore-Penrose Pseudo-inverse (PInv) serves as the fundamental solution for linear systems. In this paper, we propose a natural generalization of PInv to the nonlinear regime in general and to neural networks in particular. We introduce Surjective Pseudo-invertible Neural Networks (SPNN), a class of architectures explicitly designed to admit a tractable non-linear PInv. The proposed non-linear PInv and its implementation in SPNN satisfy fundamental geometric properties. One such property is null-space projection or "Back-Projection", $x' = x + A^\dagger(y-Ax)$, which moves a sample $x$ to its closest consistent state $x'$ satisfying $Ax=y$. We formalize Non-Linear Back-Projection (NLBP), a method that guarantees the same consistency constraint for non-linear mappings $f(x)=y$ via our defined PInv. We leverage SPNNs to expand the scope of zero-shot inverse problems. Diffusion-based null-space projection has revolutionized zero-shot solving for linear inverse problems by exploiting closed-form back-projection. We extend this method to non-linear degradations. Here, "degradation" is broadly generalized to include any non-linear loss of information, spanning from optical distortions to semantic abstractions like classification. This approach enables zero-shot inversion of complex degradations and allows precise semantic control over generative outputs without retraining the diffusion prior.


翻译:Moore-Penrose伪逆(PInv)是线性系统的基本求解方法。本文提出了一种对PInv的自然推广,将其扩展至一般非线性领域,特别是神经网络。我们引入满射伪可逆神经网络(SPNN),这是一类显式设计以允许可处理的非线性PInv的架构。所提出的非线性PInv及其在SPNN中的实现满足基本几何特性。其中一个特性是零空间投影或“反向投影”$x' = x + A^\dagger(y-Ax)$,它将样本$x$移动到满足$Ax=y$的最接近的一致状态$x'$。我们形式化非线性反向投影(NLBP),该方法通过我们定义的PInv保证非线性映射$f(x)=y$具有相同的一致性约束。我们利用SPNN扩展零样本逆问题的适用范围。基于扩散的零空间投影通过利用闭式反向投影,彻底改变了线性逆问题的零样本求解。我们将该方法推广至非线性退化问题。此处“退化”被广义地理解为包括任何非线性信息损失,涵盖从光学畸变到分类等语义抽象。该方法能够实现复杂退化的零样本逆推,并允许在无需重新训练扩散先验的情况下对生成输出进行精确的语义控制。

0
下载
关闭预览

相关内容

【Google AI】鲁棒图神经网络,Robust Graph Neural Networks
专知会员服务
38+阅读 · 2022年3月9日
【NeurIPS 2021】 基于置信度校正的可信图神经网络
专知会员服务
21+阅读 · 2021年12月26日
专知会员服务
20+阅读 · 2021年10月3日
【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
30+阅读 · 2020年11月3日
专知会员服务
29+阅读 · 2020年8月8日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
图神经网络火了?谈下它的普适性与局限性
机器之心
22+阅读 · 2019年7月29日
CVPR2019教程《胶囊网络(Capsule Networks)综述》,附93页PPT
GAN生成式对抗网络
29+阅读 · 2019年6月21日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
【AAAI专题】论文分享:以生物可塑性为核心的类脑脉冲神经网络
中国科学院自动化研究所
15+阅读 · 2018年1月23日
前沿 | 简述脉冲神经网络SNN:下一代神经网络
机器之心
39+阅读 · 2018年1月13日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月19日
Arxiv
0+阅读 · 2月12日
Arxiv
0+阅读 · 2月3日
Arxiv
0+阅读 · 1月23日
VIP会员
相关VIP内容
【Google AI】鲁棒图神经网络,Robust Graph Neural Networks
专知会员服务
38+阅读 · 2022年3月9日
【NeurIPS 2021】 基于置信度校正的可信图神经网络
专知会员服务
21+阅读 · 2021年12月26日
专知会员服务
20+阅读 · 2021年10月3日
【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
30+阅读 · 2020年11月3日
专知会员服务
29+阅读 · 2020年8月8日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
相关资讯
图神经网络火了?谈下它的普适性与局限性
机器之心
22+阅读 · 2019年7月29日
CVPR2019教程《胶囊网络(Capsule Networks)综述》,附93页PPT
GAN生成式对抗网络
29+阅读 · 2019年6月21日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
【AAAI专题】论文分享:以生物可塑性为核心的类脑脉冲神经网络
中国科学院自动化研究所
15+阅读 · 2018年1月23日
前沿 | 简述脉冲神经网络SNN:下一代神经网络
机器之心
39+阅读 · 2018年1月13日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员