成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
BERT
关注
101
BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
综合
百科
VIP
热门
动态
论文
精华
TabiBERT: A Large-Scale ModernBERT Foundation Model and A Unified Benchmark for Turkish
Arxiv
0+阅读 · 1月5日
Towards Practical Automatic Piano Reduction using BERT with Semi-supervised Learning
Arxiv
0+阅读 · 1月5日
BERT-JEPA: Reorganizing CLS Embeddings for Language-Invariant Semantics
Arxiv
0+阅读 · 1月1日
Improving Router Security using BERT
Arxiv
0+阅读 · 1月2日
Triple-BERT: Do We Really Need MARL for Order Dispatch on Ride-Sharing Platforms?
Arxiv
0+阅读 · 2025年12月31日
HELM-BERT: A Transformer for Medium-sized Peptide Property Prediction
Arxiv
0+阅读 · 2025年12月29日
DE$^3$-BERT: Distance-Enhanced Early Exiting for BERT based on Prototypical Networks
Arxiv
0+阅读 · 2025年12月27日
Bangla MedER: Multi-BERT Ensemble Approach for the Recognition of Bangla Medical Entity
Arxiv
0+阅读 · 2025年12月19日
Fine-Tuning BERT for Domain-Specific Question Answering: Toward Educational NLP Resources at University Scale
Arxiv
0+阅读 · 2025年12月4日
BERT and CNN integrated Neural Collaborative Filtering for Recommender Systems
Arxiv
0+阅读 · 2025年12月17日
ModernBERT is More Efficient than Conventional BERT for Chest CT Findings Classification in Japanese Radiology Reports
Arxiv
0+阅读 · 2025年11月24日
Tree Matching Networks for Natural Language Inference: Parameter-Efficient Semantic Understanding via Dependency Parse Trees
Arxiv
0+阅读 · 2025年12月16日
Tree Matching Networks for Natural Language Inference: Parameter-Efficient Semantic Understanding via Dependency Parse Trees
Arxiv
0+阅读 · 2025年11月28日
SpellForger: Prompting Custom Spell Properties In-Game using BERT supervised-trained model
Arxiv
0+阅读 · 2025年11月20日
Enhancing Next-Generation Language Models with Knowledge Graphs: Extending Claude, Mistral IA, and GPT-4 via KG-BERT
Arxiv
0+阅读 · 2025年12月11日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top