The success of deep learning in computer vision has been driven by models of increasing scale, from deep Convolutional Neural Networks (CNN) to large Vision Transformers (ViT). While effective, these architectures are parameter-intensive and demand significant computational resources, limiting deployment in resource-constrained environments. Inspired by Tiny Recursive Models (TRM), which show that small recursive networks can solve complex reasoning tasks through iterative state refinement, we introduce the \textbf{Vision Tiny Recursion Model (ViTRM)}: a parameter-efficient architecture that replaces the $L$-layer ViT encoder with a single tiny $k$-layer block ($k{=}3$) applied recursively $N$ times. Despite using up to $6 \times $ and $84 \times$ fewer parameters than CNN based models and ViT respectively, ViTRM maintains competitive performance on CIFAR-10 and CIFAR-100. This demonstrates that recursive computation is a viable, parameter-efficient alternative to architectural depth in vision.


翻译:深度学习在计算机视觉领域的成功,得益于模型规模的持续扩大——从深度卷积神经网络(CNN)到大型视觉Transformer(ViT)。尽管这些架构效果显著,但它们参数密集且需要大量计算资源,限制了其在资源受限环境中的部署。受极小递归模型(TRM)启发(该模型表明小型递归网络可通过迭代状态精炼解决复杂推理任务),我们提出了**视觉极小递归模型(ViTRM)**:一种参数高效的架构,它将$L$层ViT编码器替换为单个极小的$k$层块($k{=}3$),并递归应用$N$次。尽管ViTRM的参数数量分别比基于CNN的模型和ViT减少多达$6 \times$和$84 \times$,但其在CIFAR-10和CIFAR-100上仍能保持具有竞争力的性能。这表明,递归计算是视觉领域中一种可行且参数高效的架构深度替代方案。

0
下载
关闭预览

相关内容

小样本图像分类研究综述
专知会员服务
58+阅读 · 2023年1月27日
专知会员服务
22+阅读 · 2021年8月23日
CNN 模型压缩与加速算法综述
机器学习研究会
16+阅读 · 2017年8月25日
干货|基于图卷积网络的图深度学习
DataCanvas大数据云平台
10+阅读 · 2017年6月8日
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
Arxiv
0+阅读 · 4月2日
Arxiv
13+阅读 · 2023年2月7日
VIP会员
最新内容
世界动作模型: 具身AI的下一个前沿
专知会员服务
1+阅读 · 今天12:28
全球十大防空反导系统:列表、射程与用途
专知会员服务
10+阅读 · 今天3:53
相关基金
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员