成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
0
卷积越大性能越强!RepLKNet一作在线分享:Transformer阴影下的超大卷积核复兴
2022 年 3 月 22 日
机器之心
你有多久没调过 kernel size 了?在下游任务上,Transformer 明显优于传统 CNN,这是因为 Transformer 本质更强吗?传统堆叠大量 3x3 卷积的 CNN 设计模式是最优的吗?
最近,清华大学、旷视科技等机构的一项工作表明,CNN 中的 kernel size 其实是一个非常重要但总是被人忽略的设计维度:在现代模型设计的加持下,卷积核越大越暴力,既涨点又高效,甚至大到 31x31 都非常 work。即便在大体量下游任务上,超大卷积核模型 RepLKNet 与 Swin 等 Transformer 相比,性能也更好或相当。
论文地址:
https://arxiv.org/abs/2203.06717
基于超大卷积核,一些挑战传统认知的结论逐渐浮现,例如:深度小kernel模型的有效感受野其实不大,较浅的大kernel模型有效感受野非常大且更像人类(模型的预测主要根据物体的形状而非局部的纹理);Transformers 性能强悍可能不是因为Attention机制,而是因为大感受野……
在
3月24日19:00-20:00
的论文分享中,机器之心邀请到了 RepLKNet 论文一作、清华大学博士生丁霄汉为我们带来更深入的解读。
分享主题:
RepLKNet:超大卷积核,大到31x31,卷积越大,性能越强
分享嘉宾:
丁霄汉,清华大学博士生,旷视科技 Base Model 组实习生,研究方向为通用模型架构设计。在 CVPR 等会议上发表过一系列论文,提出了结构重参数化方法论及其若干应用,获得 GitHub 约 4000 Star。
分享摘要:
RepLKNet 挑战了诸多行业内的传统认知,发现大到 31x31 的超大卷积核既涨点又高效,越大越涨点。归纳了在现代模型中应用大卷积的五条准则,如用小卷积核进行重参数化等。在此之上提出了一种新的架构 RepLKNet,在大模型和下游任务上取得了亮眼的结果,比 Swin 更好或相当,远超传统小 kernel 的 CNN。
分享时间:
北京时间3月24日19:00-20:00
直播间:
关注机动组视频号,北京时间3月24日开播。
交流群:
本次直播设有 QA 环节,欢迎加入本次直播交流群探讨交流。
如群已超出人数限制,请添加机器之心小助手:syncedai2、syncedai3、syncedai4 或 syncedai5,备注「卷积」即可加入。
机器之心 · 机动组
机动组是机器之心发起的人工智能技术社区,聚焦于学术研究与技术实践主题内容,为社区用户带来技术线上公开课、学术分享、技术实践、走近顶尖实验室等系列内容。
机动组也将不定期举办线下学术交流会与组织人才服务、产业技术对接等活动,欢迎所有 AI 领域技术从业者
加入。
点击阅读原文,访问机动组官网,观看往期回顾;
关注机动组服务号,获取每周直播预告。
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
RepLKNet
关注
0
【NeurIPS2021】去掉softmax后Transformer会更好吗?复旦&华为诺亚提出SOFT:轻松搞定线性近似
专知会员服务
20+阅读 · 2021年10月26日
【NeurIPS2021】ResT:一个有效的视觉识别转换器
专知会员服务
23+阅读 · 2021年10月25日
2021机器学习研究风向是啥?MLP→CNN→Transformer→MLP!
专知会员服务
67+阅读 · 2021年5月23日
“内卷“算子超越卷积、自注意力机制:CVPR2021强大的神经网络新算子involution
专知会员服务
28+阅读 · 2021年3月27日
系列教程GNN-algorithms之六:《多核卷积拓扑图—TAGCN》
专知会员服务
50+阅读 · 2020年8月8日
大到31x31的超大卷积核,涨点又高效,一作解读RepLKNet
机器之心
0+阅读 · 2022年3月17日
CVPR 2022 | 卷积核大到31x31!涨点又高效!清华&旷视提出RepLKNet:视觉主干新网络
CVer
0+阅读 · 2022年3月15日
凭什么 31x31 大小卷积核的耗时可以和 9x9 卷积差不多?
极市平台
0+阅读 · 2022年3月14日
CVPR 2022 | 超越Transformer!FAIR重新设计纯卷积架构:ConvNeXt
CVer
1+阅读 · 2022年3月5日
线上分享 | 超越卷积、自注意力:强大的神经网络新算子「内卷」解读
机器之心
0+阅读 · 2021年4月16日
面向人类工作记忆改善的脑电复杂网络信息反馈非线性计算模型研究
国家自然科学基金
0+阅读 · 2015年12月31日
图像复原问题尺度自适应性关键技术研究
国家自然科学基金
1+阅读 · 2013年12月31日
基于位置敏感哈希的图像语义检索技术研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于柏拉图立体多级裂变模型的三维片上网络拓扑结构的研究
国家自然科学基金
0+阅读 · 2012年12月31日
基于语义的图像合成
国家自然科学基金
0+阅读 · 2011年12月31日
Detecting Unintended Memorization in Language-Model-Fused ASR
Arxiv
0+阅读 · 2022年4月20日
VDTR: Video Deblurring with Transformer
Arxiv
0+阅读 · 2022年4月17日
MMV-Based Sequential AoA and AoD Estimation for Millimeter Wave MIMO Channels
Arxiv
0+阅读 · 2022年4月16日
A Battle of Network Structures: An Empirical Study of CNN, Transformer, and MLP
Arxiv
12+阅读 · 2021年8月30日
Transformer Tracking
Arxiv
17+阅读 · 2021年3月29日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
RepLKNet
卷积核
卷积
Transformer
核化
下游任务
相关VIP内容
【NeurIPS2021】去掉softmax后Transformer会更好吗?复旦&华为诺亚提出SOFT:轻松搞定线性近似
专知会员服务
20+阅读 · 2021年10月26日
【NeurIPS2021】ResT:一个有效的视觉识别转换器
专知会员服务
23+阅读 · 2021年10月25日
2021机器学习研究风向是啥?MLP→CNN→Transformer→MLP!
专知会员服务
67+阅读 · 2021年5月23日
“内卷“算子超越卷积、自注意力机制:CVPR2021强大的神经网络新算子involution
专知会员服务
28+阅读 · 2021年3月27日
系列教程GNN-algorithms之六:《多核卷积拓扑图—TAGCN》
专知会员服务
50+阅读 · 2020年8月8日
热门VIP内容
开通专知VIP会员 享更多权益服务
智能体评判者(Agent-as-a-Judge)研究综述
《空战中心自动化持续训练》报告
区块链自主智能体:标准规范、执行模型与信任边界研究
面向无人机战场调整作战训练中心
相关资讯
大到31x31的超大卷积核,涨点又高效,一作解读RepLKNet
机器之心
0+阅读 · 2022年3月17日
CVPR 2022 | 卷积核大到31x31!涨点又高效!清华&旷视提出RepLKNet:视觉主干新网络
CVer
0+阅读 · 2022年3月15日
凭什么 31x31 大小卷积核的耗时可以和 9x9 卷积差不多?
极市平台
0+阅读 · 2022年3月14日
CVPR 2022 | 超越Transformer!FAIR重新设计纯卷积架构:ConvNeXt
CVer
1+阅读 · 2022年3月5日
线上分享 | 超越卷积、自注意力:强大的神经网络新算子「内卷」解读
机器之心
0+阅读 · 2021年4月16日
相关基金
面向人类工作记忆改善的脑电复杂网络信息反馈非线性计算模型研究
国家自然科学基金
0+阅读 · 2015年12月31日
图像复原问题尺度自适应性关键技术研究
国家自然科学基金
1+阅读 · 2013年12月31日
基于位置敏感哈希的图像语义检索技术研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于柏拉图立体多级裂变模型的三维片上网络拓扑结构的研究
国家自然科学基金
0+阅读 · 2012年12月31日
基于语义的图像合成
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
Detecting Unintended Memorization in Language-Model-Fused ASR
Arxiv
0+阅读 · 2022年4月20日
VDTR: Video Deblurring with Transformer
Arxiv
0+阅读 · 2022年4月17日
MMV-Based Sequential AoA and AoD Estimation for Millimeter Wave MIMO Channels
Arxiv
0+阅读 · 2022年4月16日
A Battle of Network Structures: An Empirical Study of CNN, Transformer, and MLP
Arxiv
12+阅读 · 2021年8月30日
Transformer Tracking
Arxiv
17+阅读 · 2021年3月29日
大家都在搜
分布式事务
对抗特征转移
最新报告
俄乌战争
MIT博士论文
篮球制作
助贷模式
反恐
菜谱
从传统方法到深度学习—— bilateral filter 到 HDRNet的演进
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top