腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(927)
视频
沙龙
1
回答
伯
特
使用
拥抱
脸部
模型
的
分数
将
“
SpanAnnotation
”转
换为
答案
、
、
、
我正在学习从huggingface导入预训练
模型
问答
模型
的
documentation from transformers import BertTokenizer, BertForQuestionAnsweringend_positions)start_scores = outputs.start_logits end_scores = outputs.end_logits 这将返回开始和结束
分数
,但是我如何从这里获得有意义
的
文本
答案
呢?
浏览 5
提问于2021-02-06
得票数 1
回答已采纳
1
回答
哪个是“工作最正常”
的
Bert-Ner存储库?
、
、
我正试图在Github中找到一个存储库,以获得用于NER任务
的
Bert
模型
的
Pytorch-重新实现。到目前为止,我发现了以下
的
回复:https://github.com/Louis-udm/NER_
伯
特
_通用报告格式 https://github.com/sberbank-ai/ner-be
浏览 0
提问于2019-05-02
得票数 0
1
回答
如何
将
输入传递给选择题回答问题
的
深度学习
模型
?
、
、
、
、
我现在在研究一个多选择
的
问答系统。培训集由一个问题、一个
答案
和四个选项组成,我需要预测四个选项中正确
的
答案
。: A [Dimensions] 如何
将
这些输入输入到任何深度学习模式中我想了两种方法:📷
使用
级联 为每个文本生成固定大小
的
单词
浏览 0
提问于2020-11-13
得票数 0
1
回答
使用
Bert预测多个令牌
、
我正在寻找关于
使用
伯
特
和
伯
特
的
蒙面语言
模型
来预测多个标记
的
建议。我
的
数据看起来是:问题:rainy days lead to @placeholder,这个@placeholder
的
答案
是wet在
模型
中,wet environment是预测
的
答案
。因此,在预处理阶段,我应
浏览 4
提问于2020-04-24
得票数 5
回答已采纳
1
回答
BERT与GPT
的
建筑、概念和实施差异
、
、
、
、
在
伯
特
纸中,我了解到BERT是只
使用
编码器
的
模型
,也就是说它只涉及变压器编码器块。我猜有什么区别。我知道编码器和解码器块之间
的
区别: GPT解码器只查看以前生成
的
令牌,并向它们学习,而不是在右侧令牌中学习。
伯
特
编码器关注双方
的
令牌。Q1。one 2,3侧重于新/一/零短期学习。难道我们不
浏览 0
提问于2021-11-26
得票数 8
1
回答
当我有没有标签
的
文本文档数据集时,如何
使用
BERT
的
微调?
、
、
、
我对
使用
BERT进行各种NLP/文本挖掘任务有了基本
的
了解。当谈到
伯
特
的
微调时,我总是看到微调是
使用
一些分类任务来执行
的
。那么,当我有一组完全没有标签
的
文档时,我应该如何改进BERT
模型
给出
的
单词/句子嵌入向量?我知道,BERT
模型
最初是针对没有标签
的
数据进行培训
的
,所以必须有一些方法。
浏览 0
提问于2020-05-27
得票数 2
2
回答
伯
特
是语言
模型
吗?
、
、
、
BERT是一个函数意义上
的
语言
模型
,得到一个句子并返回一个概率吗?我知道它
的
主要用法是句子嵌入,但它也能提供这种功能吗?
浏览 0
提问于2020-05-13
得票数 9
回答已采纳
1
回答
伯
特
是如何嵌入单词
的
?
、
、
、
、
我正在阅读所有你需要
的
文件,我不知道如何在变压器基础架构中更新权重,有任何反向传播吗?通常情况下,对
模型
学习和更新他
的
重量,但谁能确认我,并向我解释,如果可能的话?但是,我知道变压器输入中
的
三个嵌入
的
总和(句子嵌入、假想嵌入和字片嵌入),有谁能向我解释一下‘词嵌入’到底是什么?我只知道它有30k
的
词汇标记,但我不知道它是如何训练
的
,它是由变形金刚训练
的
吗?
浏览 6
提问于2022-10-20
得票数 0
1
回答
BERT嵌入层
、
我试图弄清楚嵌入层是如何为预先训练
的
伯
特
基
模型
工作
的
。我正在
使用
火把,并试图解剖以下
模型
:model = torch.hub.load('huggingface/pytorch-transformers', 'model', '第一个word_embeddings权重将把Indices中
的
每个数字转
换为
一个768维数(嵌入维数)中
的</em
浏览 0
提问于2021-05-03
得票数 3
回答已采纳
2
回答
在小型定制语料库上预训练语言
模型
、
、
、
、
我很好奇是否可以在文本生成中
使用
迁移学习,并对特定类型
的
文本进行再培训/预训练。例如,有一个经过预先训练
的
BERT
模型
和一个小型
的
医学语料库(或任何“类型”)文本,就可以生成一个能够生成医学文本
的
语言
模型
。假设你没有大量
的
“医学文本”,这就是为什么你必须
使用
转移学习。我把它说成是一条管道,我把它描述为: 从我
浏览 5
提问于2020-04-24
得票数 7
1
回答
将
熊猫数据转
换为
datasetDict
、
我在任何地方都找不到如何
将
熊猫数据转换成datasets.dataset_dict.DatasetDict类型,以便在具有
拥抱
面
模型
的
伯
特工作流中得到最佳
使用
。例如,以这些简单
的
数据文件为例。}) "label" : [2, 2, 1], "text" : ["banana", "pear", "apple&q
浏览 9
提问于2022-03-25
得票数 5
回答已采纳
1
回答
转换器/
伯
特令牌预测词汇表(从一组可能
的
令牌中筛选出特殊令牌)
、
对于转换器
模型
,特别是对于BERT,以编程方式禁止以特殊令牌作为预测结果
的
模型
是否有意义(并且在统计上是正确
的
)?这在最初
的
实现中是怎样
的
呢?在趋同过程中,
模型
必须学会不去预测这些,但这种干预是否会有所帮助(或相反)? PAD令牌也可能有一些意义(但并不是在所有情况下)。
浏览 6
提问于2021-02-13
得票数 3
2
回答
输出注意
的
伯
特
-基地-没有与
拥抱
面/变压器(火炬)
、
、
、
我跟踪了基于
伯
特
的
词汇替代(特别是试图实现等式(2) -如果有人已经实现了整个论文,那将是伟大
的
) 。因此,我想获得最后两个隐藏层(唯一不确定
的
是输出中层
的
顺序:最后一层还是第一层?)和一个基本
的
伯
特
模型
的
注意(
伯
特
-基-未)。 然而,我有点不确定
的
是否真的输出注意力(我是
使用
火炬,但开放
使用
TF代替)
浏览 2
提问于2020-02-07
得票数 6
回答已采纳
1
回答
用于情绪分析
的
BERT精调
模型
、
、
我正试着微调一个
伯
特
预先训练
的
模特。我正在处理来自yelp_polarity_reviews
的
tensorflow_datasets数据。我已确保:
使用
同样
的
tokenizer、vocab_file和do_lower_case训练原始
模型
。
将
dataset转
换为
tf.data.Dataset对
浏览 3
提问于2021-07-04
得票数 0
回答已采纳
1
回答
在NLP中,gpt-2
的
正确输入是什么?
、
、
、
我正在微调预训练
的
gpt-2文字摘要。数据集包含“文本”和“参考摘要”。因此,我
的
问题是,如何添加特殊
的
令牌,以获得正确
的
输入格式。这是正确
的
吗?如果是这样的话,接下来
的
问题是最大标记长度(即gpt-2
的
1024 )是否也意味着连接
的
文本长度和参考摘要? 任何评论都将是非常感谢
的
!
浏览 0
提问于2020-12-11
得票数 4
1
回答
如何以最佳方式
使用
SciBERT?
、
、
、
、
我试着用
伯
特
模型
来进行文本分类。由于课文是关于科学文本
的
,我打算
使用
SicBERT预培训
模型
:。我遇到了几个限制,我想知道是否有解决办法: 我尝试
将
浏览 4
提问于2021-10-01
得票数 0
回答已采纳
1
回答
从bert创建单词嵌入,并将它们输入随机林进行分类
、
、
、
、
我已经
使用
伯
特
基地预先训练
的
512个维度
的
模型
来生成上下文特征。
将
这些向量提供给随机森林分类器可以提供83 %
的
准确率,但在各种研究中,我已经看到
伯
特
最小值提供了90 %
的
准确率。即使我合并了所有的功能,我也得到了83 %
的
准确率。我作为基础论文
的
研究论文提到了92 %
的
准确率,但是他们
使用
了一种基于集合
的
方法
浏览 21
提问于2022-04-01
得票数 0
2
回答
是否有一种方法可以获得在BERT中产生特定令牌
的
子字符串
的
位置?
、
、
、
我给一个
伯
特
模型
(
拥抱
脸库)提供句子。这些句子被预先训练
的
记号器标记化。我知道您可以
使用
decode函数从令牌返回到字符串。 string = tokenizer.decode(...)如果你
使用
未经训练
的
模型
,大写字母就会丢失。另外,如果标记器
将
一个单词拆分为2个标记,则第二个标记将以'##‘开头。例如,“冠状病毒”一词被分成两个标记:“corona”和“##virus”。因此,我
的
问题
浏览 4
提问于2020-08-14
得票数 1
回答已采纳
2
回答
词嵌入和词向量化的确切区别是什么?
、
、
、
、
然而,似乎有些文章交替
使用
这些词。但我认为一定有不同之处。在矢量化中,我偶然发现了这些矢量器:而且,当我试图理解嵌入这个词
的
时候。我找到了这些工具。单词袋,Word2Vec 请你简要地总结一下词嵌入和词向量化
的
区别和算法。非常感谢。
浏览 0
提问于2022-03-13
得票数 4
回答已采纳
3
回答
RuntimeError:
使用
训练器API进行微调时,发现了dtype长但预期
的
浮点。
、
、
、
、
我试图微调
伯
特
模型
的
情感分析(分类为积极/消极
的
文本)与
拥抱
脸培训API。我
的
数据集有两列,Text和Sentiment,如下所示。Text SentimentThis was bad place 0 这是我
的
代码我搜索了互联网,这个错误似乎已经通过“
将
张量转
换为
浮动”来解决了,但是我
浏览 35
提问于2021-12-27
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Excel有小数的数怎么换成整数比值?
LeCun点赞华人女科学家——使用能量模型替代Softmax函数!
谷歌发布最强文生图大模型 Imagen 2
人工智能离我们的生活越来越近,现在更是可以在家自己DIY了
他们都拿到红包啦,点击立刻自测考题,看你能拿几分!
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券