首页
技术日记
编程
旅游
数码
登录
标签
通篇
RoBERTa: A Robustly Optimized BERT Pretraining Approach(通篇翻译)
RoBERTa:一种稳健优化的BERT预训练方法Yinhan Liu ∗ § Myle Ott ∗§ Naman Goyal ∗§ Jingfei Du ∗§ Mandar Joshi † Danqi Chen §
通篇
optimized
Robustly
Roberta
Approach
admin
5月前
46
0