腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(5)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
huggingface-transformers
:训练BERT并使用不同的注意力对其进行评估
这是一个澄清问题。我正在尝试使用标准注意力训练,并使用不同的注意力定义进行评估。export GLUE_DIR=/path/to/glue --model_name_or_path bert-base-uncased \ --do_eval \
浏览 18
修改于2020-05-08
得票数 0
回答已采纳
3
回答
如何禁用TOKENIZERS_PARALLELISM=(true | false)警告?
我使用pytorch训练
huggingface-transformers
模型,但每个时期,总是输出警告: The current process just got forked.
浏览 15
修改于2020-07-03
得票数 15
回答已采纳
1
回答
如何在训练过程中保持模型固定?
在
huggingface-transformers
中实现这一点是可能的吗?我没有看到任何允许我这样做的标志。 PS:我不想把每个BERT模型的输入编码都去掉,然后把它们当作输入。
浏览 29
提问于2020-04-28
得票数 0
回答已采纳
1
回答
多序列的Roberta标记化
huggingface-transformers
中的Roberta Tokenizer将罗伯塔的标记化方法描述为: - single sequence: ``<s> X </s>`` - pair of
浏览 7
提问于2020-04-28
得票数 1
回答已采纳
3
回答
使用自定义X和Y数据训练TFBertForSequenceClassification
我正在研究一个TextClassification问题,我试图在
huggingface-transformers
库中给出的TFBertForSequenceClassification上训练我的模型。
浏览 6
修改于2020-08-03
得票数 9
领券