成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
预训练Transformer
关注
2
综合
百科
VIP
热门
动态
论文
精华
Inner Loop Inference for Pretrained Transformers: Unlocking Latent Capabilities Without Training
Arxiv
0+阅读 · 2月16日
Provable test-time adaptivity and distributional robustness of in-context learning
Arxiv
0+阅读 · 1月25日
Markovian Pre-Trained Transformer for Next-Item Recommendation
Arxiv
0+阅读 · 1月13日
Tracing Stereotypes in Pre-trained Transformers: From Biased Neurons to Fairer Models
Arxiv
0+阅读 · 1月9日
ILID: Native Script Language Identification for Indian Languages
Arxiv
0+阅读 · 1月7日
PrefixGPT: Prefix Adder Optimization by a Generative Pre-trained Transformer
Arxiv
0+阅读 · 2025年11月22日
PrefixGPT: Prefix Adder Optimization by a Generative Pre-trained Transformer
Arxiv
0+阅读 · 2025年11月26日
Pooling Attention: Evaluating Pretrained Transformer Embeddings for Deception Classification
Arxiv
0+阅读 · 2025年11月28日
Detecting Emotion Drift in Mental Health Text Using Pre-Trained Transformers
Arxiv
0+阅读 · 2025年12月15日
MoRE: Batch-Robust Multi-Omics Representations from Frozen Pre-trained Transformers
Arxiv
0+阅读 · 2025年11月25日
MoRE: Batch-Robust Multi-Omics Representations from Frozen Pre-trained Transformers
Arxiv
0+阅读 · 2025年11月26日
ChatGPT: Applications, Opportunities, and Threats
Arxiv
1+阅读 · 2023年4月14日
A Survey of Large Language Models
Arxiv
7+阅读 · 2023年4月12日
Context-Aware Classification of Legal Document Pages
Arxiv
0+阅读 · 2023年4月5日
TabRet: Pre-training Transformer-based Tabular Models for Unseen Columns
Arxiv
0+阅读 · 2023年4月5日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top