腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
pyspark
的
Word2Vec
嵌入
:
查找
表
中
缺少
的
单词
嵌入
、
、
、
、
我有下面的数据框架:我想用
word2vec
嵌入
sentence列
中
包含
的
“
单词
”(分类特征值)。.| 82747|
word2Vec
=
Word2Vec</
浏览 19
提问于2020-06-30
得票数 0
1
回答
您什么时候对伯特
使用
word2vec
?
、
我是机器学习
的
新手,最近我接触过
word2vec
和伯特。对我来说,这听起来像伯特总是更好
的
选择,当涉及到识别一个词
的
定义。 有人能解释一下什么时候
word2v
浏览 0
提问于2022-04-15
得票数 0
1
回答
如何在gensim
的
word2vec
模型
中
嵌入
用户名
、
、
我想根据他们
的
文章来识别相似的用户。我觉得
word2vec
更适合解决这样
的
问题。但是,由于我也想在模型
中
嵌入
用户名,所以我不确定该如何做。我在互联网上找到
的
示例只
使用
了
单词
(参见示例代码)。import gensim # train
word2v
浏览 8
提问于2020-04-21
得票数 0
回答已采纳
1
回答
Gensim
word2vec
与keras
嵌入
层
的
差异
、
、
、
、
我在不同
的
项目中
使用
了gensim
word2vec
包和Keras Embedding layer。然后我意识到他们似乎在做同样
的
事情,他们都试图把一个
单词
转换成一个特征向量。 我能正确理解这一点吗?
浏览 0
提问于2019-10-11
得票数 8
回答已采纳
1
回答
理解gensim模型推理输出
、
我是gensim
的
新手,试图理解它生成
的
Word2Vec
模型。以下是一个简单
的
例子:-model =
Word2Vec
(sentences, min_count=1)print(model['first'])
Word2Vec</em
浏览 0
提问于2019-04-30
得票数 1
回答已采纳
1
回答
ELMo -模型如何在新句子上传递其学习/权重
、
、
、
、
Word2vec
和Glove
嵌入
对语料库
中
的
每个
单词
都有相同
的
向量表示,不考虑上下文。那条狗确实对人吠叫。 树
的
树皮很硬。在上面的例子
中
,
Word2vec
和Glove为
单词
“树皮”创建了一个向量。但是
使用
Elmo,对于“树皮”这个词,它会有两种不同
的
表达方式,因为它考虑
的
是上下文。所以,我在尝试如何在数据集中给出一个新句子
的
向量
浏览 0
提问于2020-06-20
得票数 0
1
回答
根据菜谱标题推荐配料
、
、
、
、
到目前为止,我已经设法从网页抓取数据与食谱标题和成分,这是
使用
这个食谱。我正在发布我
的
临时解决方案将所有数据导入数据库(在我
的
例子
中
是postgres),其中菜谱表只有名称,成分
表
有名称,ForeignKey有菜谱 一旦用户输入菜谱名称(rname),我就
使用
postgres
的
Trigram相似模块运行查询,以检测rname和菜谱表名称之间
的
相似性。然后,我筛选出
浏览 0
提问于2018-06-03
得票数 0
回答已采纳
1
回答
预训练
嵌入
层:无支撑形状
的
tf.constant
、
、
、
我将在Keras模型中
使用
预先训练过
的
单词
嵌入
。我
的
矩阵权重存储在;matrix.w2v.wv.vectors.npy
中
;它有形状(150854,100)。现在,当我
使用
不同
的
参数在Keras模型
中
添加
嵌入
层时,如下所示: embeddings_initializer=keras.initializers.Constant
浏览 1
提问于2021-03-03
得票数 0
回答已采纳
1
回答
什么是
Word2Vec
方法
、
我是数据科学
的
新手,我试图从很长一段时间内理解'
Word2Vec
‘
的
方法。有人能简单地解释一下吗?此外,通过“
Word2Vec
”方法可以解决哪些问题?
浏览 0
提问于2017-08-30
得票数 2
1
回答
负荷预训练
Word2Vec
嵌入
Tensorflow
、
、
、
我正在尝试在我
的
Tensorflow代码中加载一个经过预先训练
的
Word2Vec
(或手套),但是我在理解它时遇到了一些问题,因为我找不到很多例子。问题不是获取和加载
嵌入
矩阵,我理解它,而是
查找
单词
ids。目前,我正在
使用
来自
的
代码。在那里,首先加载
嵌入
矩阵(理解)。然后,
使用
词汇
表
处理器将一个句子x转换为一个
单词
ID列表: vocab_processor = learn.prep
浏览 1
提问于2017-04-27
得票数 1
回答已采纳
1
回答
Word2vec
在
使用
隔离林时编码医疗程序
、
、
、
、
我计划在R(孤独包)中
使用
隔离森林来识别我
的
数据
中
的
离群医疗声明。 我
的
每一行数据代表了每一个供应商在过去12个月中
使用
的
一组药物。在我
的
数据集中大约有700+独特
的
药物,
使用
带有各种数值特性
的
单一热编码会导致数据
中
列数
的
减少。作为对一种热编码
的
替代,我阅读了关于
使用
word2vec
将“
单词
”
浏览 0
提问于2022-02-01
得票数 0
2
回答
语境
嵌入
和词
嵌入
有什么区别?
、
、
我试图理解深层次学习模式
的
嵌入
概念。然而,最近我看到了大量
的
博客文章,上面写着ELMo、BERT等关于上下文
嵌入
的
文章。
单词
嵌入
与上下文
嵌入
有什么不同?
浏览 0
提问于2020-06-08
得票数 12
回答已采纳
3
回答
从多个词
嵌入
生成同义词或类似词
、
我正在寻找一种方法来生成同义词,
使用
单词
嵌入
。从一个词到多个词。例如下面的两个例子:-> ->
单词
嵌入
->生成两个
单词
的
同义词->词<e
浏览 0
提问于2020-03-05
得票数 5
2
回答
如何用
word2vec
找出两个
单词
短语
的
相似度得分?
、
、
使用
word2vec
,可以通过以下方式
查找
单个
单词
的
相似度得分/最相似的
单词
model.similarity('man', 'woman')model.most_similar('battery life') model.similarity('b
浏览 1
提问于2017-02-13
得票数 0
1
回答
如何加载具有词汇
表
约束
的
word2vec
文本文件
我有一个标准格式
的
word2vec
文件,但它很大,有两百万个项目。我还有一个词汇
表
文件,其中每行都是一个
单词
,该文件大约有800K行。现在,我希望从
word2vec
文件中加载
嵌入
,并且我只需要词汇
表
文件
中
单词
的
嵌入
。在gensim中有没有高效
的
实现?
浏览 13
提问于2019-04-19
得票数 0
回答已采纳
1
回答
如何利用Doc2Vec向量来实现最小LSTM?
、
、
我想构建一个用于文本分类
的
ANN,它有一个LSTM层,并
使用
通过以前训练过
的
Doc2Vec模型获得
的
权重:model_doc2vec.add(model_doc2vec.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) 目前,我无法在上面提到
的
weights层
中</em
浏览 0
提问于2018-08-26
得票数 2
回答已采纳
1
回答
字符串分类,如何逐字编码和训练?
、
、
、
、
真正
的
问题是我不知道如何对这些数据进行编码。我尝试过许多方法: 逐字符标记字符,并将它们添加到具有
嵌入
层
的
LSTM模型
中
。但是,我无法实现它,因此获得了维度errors.Adapting
Word2Vec
将字符转换为向量。但是,这会自动删除所有标点符号和空格字符,也会丢失数字数据。另一个问题是,它创造了更多无用
的
维度,如果尺寸是20,我会得到20维
的
数据,但是如果我仔细看,这20个维度
中
总是有相同
的
150个向量,所以它实际上是无用<e
浏览 4
提问于2020-12-04
得票数 0
1
回答
是否有一种语义相似性方法在语义准确性方面优于
word2vec
方法?
、
、
、
、
我正在研究各种语义相似方法,如
word2vec
、word移动距离(WMD)和fastText。就语义相似性而言,fastText并不比
Word2Vec
更好。大规模毁灭性武器和
Word2Vec
几乎有相似的结果。 我在想,在语义准确性方面,是否有比
Word2Vec
模型更好
的
替代方案?My use case:为两个句子
查找
单词
嵌入
,然后
使用
余弦相似度来
查找
它们
的
相似性。
浏览 1
提问于2017-08-08
得票数 2
回答已采纳
4
回答
word2vec
-什么是最好
的
?添加、串联或平均字向量?
、
、
、
、
我正在研究一种反复出现
的
语言模式。为了学习可以用于初始化我
的
语言模型
的
单词
嵌入
,我
使用
gensim
的
word2vec
模型。经过训练,
word2vec
模型对词汇
表
中
的
每个
单词
包含两个向量:
单词
嵌入
(输入/隐藏矩阵行)和上下文
嵌入
(隐藏/输出矩阵列)。正如中所概述
的
,至少有三种
浏览 6
提问于2017-10-23
得票数 20
回答已采纳
1
回答
有没有预先训练好
的
Gensim短语模型?
、
、
、
、
是否存在预训练
的
Gensim
的
Phrases模型?如果没有,是否可以
使用
预训练
的
单词
嵌入
进行逆向工程并创建短语模型?我正在尝试将GoogleNews-vectors-negative300.bin与Gensim
的
Word2Vec
一起
使用
。首先,我需要将我
的
单词
映射到短语
中
,这样我就可以从Google
的
预训练
嵌入
中
查找</
浏览 18
提问于2020-10-16
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
手把手教你NumPy来实现Word2vec
Word2Vec——深度学习的一小步,自然语言处理的一大步
使用Python和keras进行文本分类(下)
自然语言处理的一大步,应用Word2Vec模型学习单词向量表征
从模型到算法,用机器学习解决90%的自然语言处理
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券