Convolutional Neural Networks (CNNs) rely on fixed-size kernels scanning local patches, which limits their ability to capture global context or long-range dependencies without very deep architectures. Vision Transformers (ViTs), in turn, provide global connectivity but lack spatial inductive bias, depend on explicit positional encodings, and remain tied to the initial patch size. Bridging these limitations requires a representation that is both structured and global. We introduce SONIC (Spectral Oriented Neural Invariant Convolutions), a continuous spectral parameterisation that models convolutional operators using a small set of shared, orientation-selective components. These components define smooth responses across the full frequency domain, yielding global receptive fields and filters that adapt naturally across resolutions. Across synthetic benchmarks, large-scale image classification, and 3D medical datasets, SONIC shows improved robustness to geometric transformations, noise, and resolution shifts, and matches or exceeds convolutional, attention-based, and prior spectral architectures with an order of magnitude fewer parameters. These results demonstrate that continuous, orientation-aware spectral parameterisations provide a principled and scalable alternative to conventional spatial and spectral operators.


翻译:卷积神经网络(CNN)依赖于固定尺寸的卷积核扫描局部图像块,这限制了其在无需极深架构的情况下捕捉全局上下文或长程依赖的能力。视觉Transformer(ViT)虽能提供全局连接性,但缺乏空间归纳偏置、依赖显式位置编码,且受限于初始图像块尺寸。要克服这些局限,需要一种兼具结构性与全局性的表示方法。我们提出SONIC(面向频谱的神经不变卷积),这是一种连续频谱参数化方法,它使用少量共享的、方向选择性的分量来建模卷积算子。这些分量在整个频域上定义平滑响应,从而产生全局感受野和能自然适应不同分辨率的滤波器。在合成基准测试、大规模图像分类以及三维医学数据集上的实验表明,SONIC对几何变换、噪声和分辨率变化具有更强的鲁棒性,并且以数量级更少的参数匹配或超越了传统卷积、基于注意力的以及先前的频谱架构。这些结果证明,连续且具有方向感知的频谱参数化为传统空间与频谱算子提供了一种原理性且可扩展的替代方案。

0
下载
关闭预览

相关内容

【CVPR2023】深度卷积神经网络的数学架构设计
专知会员服务
33+阅读 · 2023年3月13日
卷积神经网络压缩中的知识蒸馏技术综述
专知会员服务
57+阅读 · 2021年10月23日
专知会员服务
23+阅读 · 2021年7月15日
卷积神经网络的概述论文:分析、应用和展望,21页pdf
专知会员服务
91+阅读 · 2020年4月7日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
39+阅读 · 2020年2月21日
【中科院计算所】图卷积神经网络及其应用
牛逼哄哄的图卷积神经网络将带来哪些机遇?
计算机视觉life
49+阅读 · 2019年3月25日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
【干货】使用Pytorch实现卷积神经网络
专知
13+阅读 · 2018年5月12日
卷积神经网络的最佳解释!
专知
12+阅读 · 2018年5月1日
精选 | 一张动图看懂卷积神经网络之卷积计算层
七月在线实验室
27+阅读 · 2017年6月21日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2月5日
VIP会员
相关资讯
【中科院计算所】图卷积神经网络及其应用
牛逼哄哄的图卷积神经网络将带来哪些机遇?
计算机视觉life
49+阅读 · 2019年3月25日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
【干货】使用Pytorch实现卷积神经网络
专知
13+阅读 · 2018年5月12日
卷积神经网络的最佳解释!
专知
12+阅读 · 2018年5月1日
精选 | 一张动图看懂卷积神经网络之卷积计算层
七月在线实验室
27+阅读 · 2017年6月21日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员