关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
TechOnly1988
2021-01-20 14:38
采纳率: 100%
浏览 96
首页
人工智能
已结题
2021年了,有哪些稳压bert和roberta的预训练模型?
机器学习
自然语言处理
神经网络
人工智能
深度学习
在相同或接近的计算资源和数据资源下,
速度快了同时正确率不减也是
写回答
好问题
提建议
追加酬金
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
1
条回答
默认
最新
相关推荐
更多相似问题
2021
年
了,
有
哪些
稳压
bert
和
roberta
的
预训练模型
?
人工智能
机器学习
深度学习
神经网络
自然语言处理
2021-01-20 14:38
回答 1
已采纳
https://arxiv.org/abs/2106.11483
问下
有
人知道
和
BERT
论文用的一模一样的
预
训练
源数据从哪找吗
自然语言处理
2021-03-23 11:39
回答 1
已采纳
貌似需要自己爬 Wikipedia + bookcorpus ,一些参考: https://github.com/NVIDIA/DeepLearningExamples/blob/master/Py
BERT
问题,无法解决,求帮助?
bert
python
tensorflow
2021-07-21 10:53
回答 1
已采纳
你要打印这个line的值看看,是不是
有
两个元素能取到[1] 这个索引
官方
bert
中文
预训练模型
2020-08-17 16:03
Google官方中文
Bert
预训练模型
,当前
模型
为
bert
base
模型
,省去爬梯下载的烦恼,需要其他
模型
的可以私信
bert
:TensorFlow代码
和
BERT
的
预训练模型
2021-02-03 15:11
我们已经证明,除了
BERT
-Base
和
BERT
-Large之外,标准
BERT
配方(包括
模型
体系结构
和
训练
目标)对多种
模型
尺寸均
有
效。 较小的
BERT
模型
适用于计算资源
有
限的环境。 可以按照与原始
BERT
模型
相同的方式对它们进行微调。...
没有解决我的问题,
去提问