成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
3
Transformer
·
注意力机制
·
2019 年 10 月 16 日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
专知,提供专业可信的知识分发服务,让认知协作更快更好!
ExBert - A Visual Analysis Tool to Explore Learned Representations in Transformers Models
工具官网:
http://exbert.net
论文:
https://arxiv.org/abs/1910.05276
成为VIP会员查看完整内容
http://exbert.net/
EXBERT A Visual Analysis Tool to Explore.pdf
点赞并收藏
3
暂时没有读者
32
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
Transformer
关注
244
Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构
知识荟萃
精品入门和进阶教程、论文和代码整理等
更多
查看相关VIP内容、论文、资讯等
【NeurIPS2020提交论文】通用表示Transformer层的小样本图像分类
专知会员服务
59+阅读 · 2020年6月29日
语言视觉预训练语言模型揭密,Behind the Scene: Revealing the Secrets of Pre-trained Vision-and-Language Models
专知会员服务
36+阅读 · 2020年5月20日
Transformer文本分类代码
专知会员服务
118+阅读 · 2020年2月3日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
92+阅读 · 2019年10月16日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
ACL 2019 | 理解 BERT 每一层都学到了什么
AI科技评论
9+阅读 · 2019年9月4日
最强NLP预训练模型库PyTorch-Transformers正式开源!支持6个预训练框架,27个预训练模型
AI前线
12+阅读 · 2019年7月22日
如何可视化BERT?你需要先理解神经网络的语言、树和几何性质
机器之心
5+阅读 · 2019年6月14日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
深度学习与NLP
31+阅读 · 2019年3月30日
Data Augmentation using Pre-trained Transformer Models
Arxiv
17+阅读 · 2020年3月4日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
How Does BERT Answer Questions? A Layer-Wise Analysis of Transformer Representations
Arxiv
4+阅读 · 2019年9月11日
Fine-tune BERT for Extractive Summarization
Arxiv
3+阅读 · 2019年9月5日
X-BERT: eXtreme Multi-label Text Classification with BERT
Arxiv
12+阅读 · 2019年7月4日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
Transformer
注意力机制
相关VIP内容
【NeurIPS2020提交论文】通用表示Transformer层的小样本图像分类
专知会员服务
59+阅读 · 2020年6月29日
语言视觉预训练语言模型揭密,Behind the Scene: Revealing the Secrets of Pre-trained Vision-and-Language Models
专知会员服务
36+阅读 · 2020年5月20日
Transformer文本分类代码
专知会员服务
118+阅读 · 2020年2月3日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
92+阅读 · 2019年10月16日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
热门VIP内容
开通专知VIP会员 享更多权益服务
面向现代战场的特种作战无人机网络
《面向无GPS及复杂环境的鲁棒自主探索导航框架》350页
《网络化部队中的任务式指挥:近期美海军与空军条令及作战概念对任务式指挥的采纳》最新报告
《俄乌战场:俄罗斯“沙希德”-136无人机部署月度分析(2025.12)》
相关资讯
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
ACL 2019 | 理解 BERT 每一层都学到了什么
AI科技评论
9+阅读 · 2019年9月4日
最强NLP预训练模型库PyTorch-Transformers正式开源!支持6个预训练框架,27个预训练模型
AI前线
12+阅读 · 2019年7月22日
如何可视化BERT?你需要先理解神经网络的语言、树和几何性质
机器之心
5+阅读 · 2019年6月14日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
深度学习与NLP
31+阅读 · 2019年3月30日
相关论文
Data Augmentation using Pre-trained Transformer Models
Arxiv
17+阅读 · 2020年3月4日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
How Does BERT Answer Questions? A Layer-Wise Analysis of Transformer Representations
Arxiv
4+阅读 · 2019年9月11日
Fine-tune BERT for Extractive Summarization
Arxiv
3+阅读 · 2019年9月5日
X-BERT: eXtreme Multi-label Text Classification with BERT
Arxiv
12+阅读 · 2019年7月4日
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top