腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5065)
视频
沙龙
1
回答
在
tensorflow
中有
分布式
矩阵
乘法
的
现有
实现
吗
?
从github代码来看,MatMul操作似乎不支持分区
矩阵
。那么
tensorflow
中有
没有什么工具可以支持分布
在
多个节点上
的
两个巨大
矩阵
的
乘法
呢?
浏览 3
提问于2017-02-17
得票数 1
1
回答
对于稀疏
矩阵
,
Tensorflow
使用COO格式而不是CSR有什么明显
的
原因
吗
?
、
我试图从
Tensorflow
内置
的
稀疏
矩阵
乘法
API中获取性能优势。建议tf.embedding_lookup_sparse是正确
的
方法。但是,embedding_lookup_sparse
的
性能似乎
在
中有
些令人失望。虽然它执行较小
的
矩阵
乘法
,<1,3196>和<3196,1024>,但稀疏度为0.1
的
稀疏
矩阵
不能获得密集
矩阵</e
浏览 6
提问于2016-06-08
得票数 4
回答已采纳
3
回答
使用JAVA进行并行处理
、
我有一个项目,该项目的任务是
在
各自
的
并行
分布式
环境中
实现
矩阵
乘法
(至少
在
2台计算机上)。我想用JAVA解决我
的
问题。
矩阵
乘法
没有问题,只是不知道
在
并行
分布式
环境中使用哪种技术。你有什么建议?谢谢:)
浏览 0
提问于2011-12-01
得票数 0
3
回答
tensorflow
:如何在两个稀疏
矩阵
之间进行元素方向
乘法
、
、
、
我有两个使用tf.sparse_placeholder声明
的
稀疏
矩阵
。我需要在两个
矩阵
之间按元素进行
乘法
。但我
在
tensorflow
中找不到这样
的
实现
。最相关
的
函数是tf.sparse_tensor_dense_matmul,但这是
在
一个稀疏
矩阵
和一个稠密
矩阵
之间执行
矩阵
乘法
的
函数。 我希望找到
的
是
在<
浏览 9
提问于2017-08-17
得票数 0
回答已采纳
6
回答
Python中
的
稀疏3d
矩阵
/数组?
、
、
、
在
scipy中,我们可以使用scipy.sparse.lil_matrix()等构造一个稀疏
矩阵
,但是这个
矩阵
是二维
的
。 我想知道Python中是否有用于稀疏3d
矩阵
/数组(张量)
的
现有
数据结构?附注:我
在
3d
中有
很多稀疏数据,需要一个张量来存储/执行
乘法
。如果没有
现有
的数据结构,有什么建议来
实现
这样
的
张量
吗
?
浏览 1
提问于2011-10-07
得票数 82
1
回答
Tensorflow
示例是行还是列?
、
考虑到
Tensorflow
API nn.softmax、nn.sparse_softmax_cross_entropy_with_logits、tf.nn.rnn等,似乎惯例是将样本作为一个批处理中
的
行放置
在
神经网络中,向前通过是tf.matmul(input_batch, W) + b,其中input_batch是形状[n_samples, input_size]
的
矩阵
。
在
批处理中
的
所有样本(行)上广播行向量b
的
添加。 当使用神经网络时,这是一种普
浏览 4
提问于2016-09-26
得票数 2
2
回答
分布式
感应器-- Reinpect人体检测模型
的
流训练
、
、
、
我正在研究
分布式
Tensorflow
,特别是使用以下论文中给出
的
分布式
Tensorflow
实现
复现模型。 我们正在使用图与图之间
的
异步
实现
分布式
tensorflow
设置,但结果非常令人惊讶。
在
替补席上,我们发现
分布式
训练
的
训练时间几乎是单机训练
的
2倍。任何关于可能发生
的
事情和可以尝试
的
其他事情
的</em
浏览 2
提问于2016-09-30
得票数 1
回答已采纳
3
回答
用CUDA + MPI
实现
矩阵
乘法
、
、
我正在做一个关于gpu
在
集群环境中使用mpi通信
的
研究。一个GPU
的
矩阵
乘法
,好
的
。有谁能告诉我在哪能找到这个
吗
?或者建议一个
实现
。
浏览 2
提问于2011-05-12
得票数 1
回答已采纳
1
回答
稀疏
矩阵
与稠密
矩阵
乘积C++势流
、
、
我想用C++
Tensorflow
稀疏
矩阵
稠密向量(SPMv)
乘法
:y= Ax请注意,我已经看过以下文章: 。然而,我仍然想知道以下几点: SPMv
乘法
在
时间上如何与DMv相比?由于稀疏性相对较高,我认为SPMv应该更好地减少操作
的
数量-是
吗
浏览 12
提问于2020-07-28
得票数 0
1
回答
如何在
Tensorflow
神经网络中使用自定义
矩阵
乘法
处理非值错误
、
、
我已经用
TensorFlow
编写了我自己
的
矩阵
乘法
实现
,当tf占位符
的
维度被正确定义时,它可以与tf占位符一起使用。(tf.float32, shape=(None, n_inputs), name="X") y = tf.placeholder(tf.int64, shape=(None), name="y")
在
我
的
实现
中,我首先检查
矩阵
的
维数,使它们匹配
浏览 20
提问于2019-09-30
得票数 1
1
回答
Tensorflow
无法
在
GPU上运行整数
矩阵
乘法
看看这个例子,我尝试用我
的
图形处理器来乘以两个tf.int32
矩阵
。import
tensorflow
as tfmatrix2 = tf.constant([[2],[2]]) result = sess.run(product)它与上
的
示例类似] 0: Y I <em
浏览 3
提问于2016-08-29
得票数 0
回答已采纳
1
回答
如何从1,000,000行和20,000个特征中获得最近邻
矩阵
?
、
、
、
、
我想计算一千万条记录
的
关系,但由于Spark
的
内存不足,处理过程停止了。通过TF - Hashing创建了一千万个文档,以创建20,000维
的
特征。首先,我尝试了“近似相似连接”,但计算并不收敛。接下来,我尝试使用scikit-learn
的
KNN,但当我将所有数据带到Driver时,内存溢出。有没有别的办法呢?
浏览 44
提问于2018-12-22
得票数 1
回答已采纳
1
回答
大滤波器
tensorflow
conv2d
的
内存使用
、
、
我有一个带有一些较大
的
135 x 135 x 1 x 3卷积滤波器
的
tensorflow
模型。(注意:我还试着改变我
的
维度来使用单个conv3d,而不是一批conv2d,但这也有同样
的
问题) 第二,除了将操作分解成200个单独
的
图像卷积外,还有人能提出解决方案
吗
?, output_channels]
的
二维
矩阵
.对于每个补丁,右乘滤波
矩阵
和图像补丁向量.我最初只是把这看作是对过程
的
一种描述,但如果<e
浏览 5
提问于2017-08-30
得票数 6
回答已采纳
1
回答
Hadoop中
的
矩阵
求逆、
乘法
与本征计算
、
、
、
我需要执行以下三个步骤:-求正方形对称
矩阵
的
逆,用另一个平方对称
矩阵
乘以结果,最后求出结果
矩阵
的
特征向量和特征值。python代码:S_m = S_i*S2Hadoop框架中是否存在这些步骤
的
现有
实现
我知道
在
Mahout中
的
SVD
实现
,如果在Hadoop
中有
浏览 3
提问于2014-09-26
得票数 0
1
回答
Tensorflow
中
的
批量稀疏
矩阵
乘法
、
、
、
有没有办法
在
Tensorflow
中执行批量稀疏
矩阵
乘法
?这些是我想要增加
的
形状:因此,两边都有一个批处理组件,每个2D内部
矩阵
对都应该相应地相乘。有没有办法处理当前
实现
的
函数? 谢谢。
浏览 10
提问于2017-06-29
得票数 2
1
回答
使用
tensorflow
矩阵
乘法
测试GPU
、
、
、
由于许多机器学习算法依赖于
矩阵
乘法
(或者至少可以使用
矩阵
乘法
实现
)来测试我
的
GPU,因此我计划创建
矩阵
a,b,将它们相乘,并记录完成计算所需
的
时间。下面的代码将生成两个维度为300000,20000
的
矩阵
并将其相乘:import numpy as np init = tf.global_variables_initializer300000,200
浏览 0
提问于2017-01-23
得票数 7
回答已采纳
1
回答
Tensorflow
RNN是否完全
实现
了Elman网络?
、
、
问:是否
实现
了
Tensorflow
RNN来输出Elman Network
的
隐藏状态? 所以我想说清楚。输出和状态只是隐藏
的
状态向量
浏览 2
提问于2017-05-08
得票数 2
3
回答
如何在Keras中
实现
矩阵
乘法
?
、
、
、
我只想
实现
一个函数,给定一个
矩阵
X返回X (X^T*X)
的
协方差
矩阵
,这只是一个简单
的
矩阵
乘法
。
在
Tensorflow
中很简单: tf.matmul(X,tf.transpose(X))
浏览 0
提问于2017-05-03
得票数 10
回答已采纳
2
回答
分布式
PCA或等效
、
、
、
因此,我们正在寻找一个
分布式
运行
的
降维
实现
(例如,
在
Spark/Hadoop/ etc中)。我们想把功能减少到几千个。由于PCA操作于
矩阵
乘法
,而
矩阵
乘法
并不能很好地分布
在
一组服务器上,所以我们正在研究其他算法,或者可能是其他
分布式
降维
的
实现
。 有人遇到过类似的问题
吗
?你做了什么来解决这个问题?GLRM虽然似乎是我们正在寻找
的
浏览 0
提问于2018-07-11
得票数 5
回答已采纳
6
回答
稀疏张量
乘法
是用
TensorFlow
实现
的
吗
?
、
稀疏张量与自身或稠密张量
的
乘法
在
TensorFlow
中似乎不起作用。下面的示例import
tensorflow
as tf float32 of argument 'a' 这两个张量都有float32类型
浏览 0
提问于2015-12-01
得票数 27
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习框架Tensorflow学习笔记(一)
Tensorflow基础知识-边、节点、其他概念
TensorFlow的使用之基础篇
高数难吗?别慌,DeepMind再次出马,解决了数学界50年的难题
einsum,一个函数走天下
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券