成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
BERT
关注
101
BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
综合
百科
VIP
热门
动态
论文
精华
State of the Art in Text Classification for South Slavic Languages: Fine-Tuning or Prompting?
Arxiv
0+阅读 · 2月19日
ACL: Aligned Contrastive Learning Improves BERT and Multi-exit BERT Fine-tuning
Arxiv
0+阅读 · 2月12日
From Perceptions To Evidence: Detecting AI-Generated Content In Turkish News Media With A Fine-Tuned Bert Classifier
Arxiv
0+阅读 · 2月13日
Aspect-Based Sentiment Analysis for Future Tourism Experiences: A BERT-MoE Framework for Persian User Reviews
Arxiv
0+阅读 · 2月13日
On the Efficiency of Sequentially Aware Recommender Systems: Cotten4Rec
Arxiv
0+阅读 · 2月6日
AIWizards at MULTIPRIDE: A Hierarchical Approach to Slur Reclamation Detection
Arxiv
0+阅读 · 2月13日
SmartBugBert: BERT-Enhanced Vulnerability Detection for Smart Contract Bytecode
Arxiv
0+阅读 · 1月31日
ACL: Aligned Contrastive Learning Improves BERT and Multi-exit BERT Fine-tuning
Arxiv
0+阅读 · 2月3日
MaiBERT: A Pre-training Corpus and Language Model for Low-Resourced Maithili Language
Arxiv
0+阅读 · 2月2日
Constructing BERT Models: How Team Dynamics and Focus Shape AI Model Impact
Arxiv
0+阅读 · 1月30日
GenAI for Social Work Field Education: Client Simulation with Real-Time Feedback
Arxiv
0+阅读 · 1月26日
WADBERT: Dual-channel Web Attack Detection Based on BERT Models
Arxiv
0+阅读 · 1月29日
Contrastive Bi-Encoder Models for Multi-Label Skill Extraction: Enhancing ESCO Ontology Matching with BERT and Attention Mechanisms
Arxiv
0+阅读 · 1月14日
Generative Language Models on Nucleotide Sequences of Human Genes
Arxiv
0+阅读 · 1月20日
Sentiment Analysis Of Shopee Product Reviews Using Distilbert
Arxiv
0+阅读 · 1月14日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top