腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
多个
输入
上
的
密集
层
可以
表示
为
单个
矩阵
乘法
吗
?
、
表示
a[2, 3]是2x3维
的
矩阵
。假设每个
输入
中有10个元素,网络是一个两个元素
的
分类器(例如,猫或狗)。假设只有一个致密
层
。现在,我忽略了偏差向量。神经网络
密集
层
中
的
每个输出
可以
计算
为
output = matmul(input, weights) 其中weights是权重
矩阵
10x2,input是
输入
向量1x10,output是输出向量1x2。我
的<
浏览 20
提问于2020-11-28
得票数 1
回答已采纳
2
回答
NN嵌入
层
、
、
、
、
一些神经网络库,如tensorflow和pytorch提供了嵌入
层
。在过去实现了word2vec之后,我理解了想要更低维度
表示
的
原因。在word2vec
的
情况下,低维
表示
可以
用于其
浏览 0
提问于2018-05-31
得票数 10
1
回答
Tensorflow嵌入
层
内部
的
网络结构是什么?
、
、
Tensoflow ()易于使用,并且有大量
的
文章讨论如何使用嵌入(,)。然而,我想知道在Tensorflow或Py手电筒中非常“嵌入
层
”
的
实现。是word2vec
吗
?是弓
吗
?这是一个特殊
的
致密
层
吗
?
浏览 5
提问于2021-06-09
得票数 7
回答已采纳
1
回答
Keras不是那么
密集
的
一
层
、
上
一
层
是嵌入大小(V类,K -outputdim) -我想引入一个权重
矩阵
大小K x T。权重将是可训练
的
(就像嵌入一样).They生成
的
VxT
矩阵
将用于下游。1)我该怎么做?2)这会影响渐变
吗
? 它基本
上
是向量x
矩阵
。Example- embedding vocab = 10,dim K =4。因此,对于特定
的
词汇表成员,我
的
嵌入权重是一个向量大小(1,4) (考虑行向量)。 对于每个行向量,我想
浏览 9
提问于2019-06-27
得票数 0
回答已采纳
1
回答
二维转置卷积
可以
表示
为
Toeplitz
矩阵
乘法
吗
?
、
、
、
、
二维转置卷积运算是否
可以
表示
为
与Toeplitz
矩阵
的
矩阵
乘法
,就像普通卷积一样? 我想将一些想法从
密集
网络推广到卷积网络。对于正常
的
卷积,这不是问题,因为它们
可以
表示
为
与Toeplitz
矩阵
的
矩阵
乘法
。但我找不到转置卷积
的
清晰数学公式,所以我不确定这种情况。
浏览 26
提问于2019-07-04
得票数 1
1
回答
请解释CNN
的
架构
、
📷model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) 我
的
问题是: 1] dense_1 :平面有1600个
输入
,输出将是128个,所以它将如何从1600个
输入
中选择128个输出?(2)将在哪个
层
中
浏览 0
提问于2019-04-15
得票数 0
1
回答
多(单输出) NN与单(多目标) NN有什么区别?
、
、
、
、
我正在研究以下Keras/TF
的
自回归问题:m示例x 10时间步骤(序列长度)x 7特性产出:到目前为止,使用LSTM
的
与
密集
的
层
结束举个例子,我给出了7个10大小序列
的
特性,我只想要其中
的
4个实际值(我根据以前
的
值预测当前值)。我
的
问题是以下:a. 1尺寸
为
m x 4<em
浏览 0
提问于2019-04-30
得票数 0
1
回答
稀疏
矩阵
与稠密
矩阵
乘积C++势流
、
、
我想用C++ Tensorflow稀疏
矩阵
稠密向量(SPMv)
乘法
:y= Ax请注意,我已经看过以下文章: 。然而,我仍然想知道以下几点: SPMv
乘法
在时间
上
如何与DMv相比?由于稀疏性相对较高,我认为SPMv应该更好地减少操作
的
数量-是
吗
浏览 12
提问于2020-07-28
得票数 0
1
回答
神经网络中
的
batch_size
、
当构造NN时,未定义批大小,使用位置保持器,其汇总(Tensorfow)显示批次大小
为
无。 这很有用,因为以后
可以
更改批处理大小。当模型具有10个
输入
特征,1个隐
层
具有10个神经元和输出
层
时,隐藏
层
的
形状
为
(0,10),即当批数
为
20时,隐藏
层
的
形状
为
(20,10)。当模型被用来预测
单个
输出
的
形状(10,1)时,数学是如何工作
的
浏览 0
提问于2020-11-13
得票数 0
回答已采纳
3
回答
什么是神经网络背景下
的
投影
层
?
、
、
、
目前,我正试图理解word2vec神经网络学习算法背后
的
体系结构,将单词
表示
为
基于上下文
的
向量。 在阅读了之后,我发现了他定义
的
投影
层
。我
的
问题是,在神经网络中,什么是投影
层
?它是否被命名为一个隐
层
,其链接到以前
的
节点具有相同
的
权重?它
的
单位实际上有某种激活功能
吗
?在中也
可以
找到更广泛地提到问题
的
另一个资源,它也指页面67周围
浏览 5
提问于2016-06-17
得票数 59
回答已采纳
2
回答
文本分类中对
密集
层
的
需求
、
、
、
、
在创建文本分类模型时,为什么需要一个
密集
的
层
?我在
多个
例子中注意到以下是结构。软件是什么要求
的
权利,而不是
密集
的
一
层
?tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(64)),])a = activation_unit emb= embedding_vector
浏览 0
提问于2020-06-17
得票数 0
回答已采纳
1
回答
利用tensorflow建立一种用于时间序列预测
的
双层LSTM
、
、
、
、
在Tensorflow教程中,我正在实验LSTM时间序列由于这里
的
任务比以前
的
任务要复杂一些,所以模型现在由两个LSTM
层
组成。最后,由于72个预测,致密
层
输出72个预测。我们如何知道一个问题需要多少
层
(在这里,2
层
)?然后,从实现
的
角度,使用Python库,mult
浏览 0
提问于2019-12-25
得票数 2
回答已采纳
1
回答
Keras模型结构问题
、
、
、
: 在Convolution2D()函数中,我们使用了32个过滤器,每个过滤器是3x3像素。据我理解,过滤器是一小块像素,在图像中“
浏览 6
提问于2016-12-12
得票数 1
回答已采纳
2
回答
Keras :第一个参数
在Keras中,如果您想要添加一个包含10个单元
的
LSTM
层
,则使用model.add(LSTM(10))。我听说过这个数字10被称为隐藏单元
的
数量和输出单元
的
数量( Keras代码第863行)。我
的
问题是这两件事是一样
的
吗
?输出
的
维数是否与隐藏单位
的
数量相同?我读过一些教程(如和),但没有一个明确说明这一点。
浏览 4
提问于2017-04-10
得票数 1
回答已采纳
1
回答
对于稀疏
矩阵
,Tensorflow使用COO格式而不是CSR有什么明显
的
原因
吗
?
、
我试图从Tensorflow内置
的
稀疏
矩阵
乘法
API中获取性能优势。建议tf.embedding_lookup_sparse是正确
的
方法。但是,embedding_lookup_sparse
的
性能似乎在中有些令人失望。虽然它执行较小
的
矩阵
乘法
,<1,3196>和<3196,1024>,但稀疏度
为
0.1
的
稀疏
矩阵
不能获得
密集
矩阵
乘法<
浏览 6
提问于2016-06-08
得票数 4
回答已采纳
2
回答
张量流如何在MLPs情况下使用填充和掩蔽
层
?
、
、
、
、
我有可变长度
的
输入
来解决这个问题,我想使用零填充和掩蔽
层
。 填充后:面具应该是这样
的
:[1, 1, 1, 1, 1, 1, 1, 1, 1, 0] 但我不知道如何添加掩码
层
,并将它们
输入
浏览 0
提问于2019-03-20
得票数 1
回答已采纳
3
回答
嵌入
层
和
密集
层
之间有什么区别?
、
、
、
、
Keras中
的
文档说: 我相信,也
可以
通过将
输入
编码
为
长度vocabulary_size
的
一个热向量,并将它们
输入
到中来实现。一个嵌入
层
只是这个两步过程
的
一个方便,还是一个更有幻想
的
东西在罩下?
浏览 3
提问于2017-12-18
得票数 49
回答已采纳
1
回答
如何在keras中实现具有任意节点连接
的
前馈网络?
但是,我看到,独立地使用顺序或图,假设一个
层
的
每个节点都与另一个
层
的
所有节点完全连接,不是
吗
?我
的
疑问是,如果我想构建一个没有完全连接
的
深度前馈网络,例如第二
层
的
第一个节点没有连接到第三个layer...etc
的
第二个节点,即使我想在非连续
层
的
节点之间添加连接(跳过连接),我如何在keras中实现这一点呢
浏览 1
提问于2018-01-05
得票数 1
1
回答
元素级
乘法
的
Lambda
层
在第一次模型更新后给出NaNs。(Keras)
、
、
、
我
的
模型是用Keras写
的
。它有
多个
输入
,其中一个要与倒数第二个稠密
层
的
输出相乘,然后再将逻辑
输入
到softmax。通过Lambda
层
来实现这个元素
的
顺向
乘法
。如果在计算图中定义
的
常量向量与
密集
层
的
输出相乘,则不会发生这种情况。logits = dense_output * [1, 1, 1, 1, 1, -100, 1, -100, 1, 1]
浏览 3
提问于2020-09-11
得票数 1
2
回答
使用torch.nn.Embedding for GloVe:我们应该对嵌入进行微调还是按原样使用它们?
、
虽然传输学习/微调最近
的
语言模型,如伯特和XLNET,是一个非常普遍
的
做法,这是如何为GloVe呢?2)只需使用无梯度
的
嵌入。例如,给定手套
的
嵌入
矩阵
,我
可以
embed = nn.Embeddin
浏览 11
提问于2019-10-30
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
DL笔记:理解多节点神经网络
一文帮你梳理清楚深度神经网络的基础知识!
一文看懂卷积神经网络
Transformer 模型的计算复杂度为何是序列长度的平方
反向传播算法推导-全连接神经网络
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券