The convolution operator is the fundamental building block of modern convolutional neural networks (CNNs), owing to its simplicity, translational equivariance, and efficient implementation. However, its structure as a fixed, linear, locally-averaging operator limits its ability to capture structured signal properties such as low-rank decompositions, adaptive basis representations, and non-uniform spatial dependencies. This paper presents a systematic taxonomy of operators that extend or replace the standard convolution in learning-based image processing pipelines. We organise the landscape of alternative operators into five families: (i) decomposition-based operators, which separate structural and noise components through singular value or tensor decompositions; (ii) adaptive weighted operators, which modulate kernel contributions as a function of spatial position or signal content; (iii) basis-adaptive operators, which optimise the analysis bases together with the network weights; (iv) integral and kernel operators, which generalise the convolution to position-dependent and non-linear kernels; and (v) attention-based operators, which relax the locality assumption entirely. For each family, we provide a formal definition, a discussion of its structural properties with respect to the convolution, and a critical analysis of the tasks for which the operator is most appropriate. We further provide a comparative analysis of all families across relevant dimensions -- linearity, locality, equivariance, computational cost, and suitability for image-to-image and image-to-label tasks -- and outline the open challenges and future directions of this research area.


翻译:卷积算子因其简洁性、平移等变性和高效实现,已成为现代卷积神经网络(CNN)的基本构建模块。然而,其作为一种固定的、线性的、局部平均算子的结构,限制了其捕捉结构化信号特性的能力,例如低秩分解、自适应基表示以及非均匀空间依赖性。本文系统性地分类了在基于学习的图像处理流程中扩展或替代标准卷积的算子。我们将替代算子的研究领域划分为五个类别:(i)基于分解的算子,通过奇异值或张量分解分离结构成分与噪声成分;(ii)自适应加权算子,根据空间位置或信号内容动态调整卷积核的贡献;(iii)基自适应算子,将分析基与网络权重共同优化;(iv)积分与核算子,将卷积推广至位置相关和非线性核;(v)基于注意力的算子,完全放宽了局部性假设。针对每个类别,我们提供了形式化定义,讨论了其相对于卷积的结构特性,并批判性分析了该算子最适用的任务。我们进一步从多个相关维度——线性、局部性、等变性、计算成本以及适用于图像到图像和图像到标签任务的程度——对所有类别进行了比较分析,并概述了该研究领域的开放挑战与未来方向。

0
下载
关闭预览

相关内容

在数学(特别是功能分析)中,卷积是对两个函数(f和g)的数学运算,产生三个函数,表示第一个函数的形状如何被另一个函数修改。 卷积一词既指结果函数,又指计算结果的过程。 它定义为两个函数的乘积在一个函数反转和移位后的积分。 并针对所有shift值评估积分,从而生成卷积函数。
深度学习中卷积的综述:应用、挑战和未来趋势
专知会员服务
38+阅读 · 2024年3月22日
图像分类的深度卷积神经网络模型综述
专知会员服务
57+阅读 · 2021年10月29日
专知会员服务
57+阅读 · 2021年9月22日
【中科院计算所】图卷积神经网络及其应用
牛逼哄哄的图卷积神经网络将带来哪些机遇?
计算机视觉life
49+阅读 · 2019年3月25日
【干货】使用Pytorch实现卷积神经网络
专知
13+阅读 · 2018年5月12日
精选 | 一张动图看懂卷积神经网络之卷积计算层
七月在线实验室
27+阅读 · 2017年6月21日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月5日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员