腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
tensorflow
如何
从
批处理
输入
中
获取
非
零
值
、
、
第一个索引是None和
批处理
索引, 在以下示例
中
,
批处理
大小为2(两行),
输入
长度为3 In [12]: ar = [[0,1,2], In [13]: mask下面我将
获取
item_average,这是prior_ids的平均嵌入,我希望在不使用mask_zero=0的情况下获得嵌入之前,
从
prior_ids中去掉0
值
selected = self.item_embedding_layer
浏览 21
提问于2019-04-02
得票数 1
回答已采纳
1
回答
Tensorflow
交叉熵NaN和改变学习速率似乎没有影响
、
、
DR试图构建一个双向RNN,用于使用
tensorflow
进行序列标记。图形编译并运行,但损失在1或2批后变为NaN。
浏览 1
提问于2016-05-05
得票数 0
1
回答
将tf.nn.top_n的输出转换为稀疏矩阵
、
、
、
、
正如标题所述,我试图
从
tensorflow
中
的矩阵中提取每一行的最高n个元素,并将结果存储在稀疏张量
中
。我已经能够用tf.nn.top_n提取索引和
值
,但是索引并不遵循tf.SparseTensor所要求的约定。具体来说,tf.nn.top_n返回一个与结果
值
矩阵(行x)形状相同的col索引矩阵,而tf.SparseTensor则需要一个(#
非
零
x2)矩阵,其中每个
非
零
元素有1行,而包含行和col索引的列。这些<em
浏览 1
提问于2017-04-05
得票数 0
回答已采纳
3
回答
Excel公式检查行
中
的最后一个
非
零
值
,并从相应的列
中
获取
单元格
值
、
、
请您建议
如何
编写公式,以便:300 0 200 100 0 ,,结果应该是Pete,我试过查找,可以找到最后一个
非
零
值
为100,但是
如何
从
另一行
中
获取</em
浏览 2
提问于2020-07-23
得票数 0
1
回答
Tensorflow
RNN PTB教程测试措施和状态重置不对吗?
、
、
我有两个关于
Tensorflow
PTB教程代码的问题。下面的代码块来自于代码。 self.:,time_step,:,状态) outputs.append(cell_output) 在第133行
中
,我们将初始状态设置为
零
。然后,第153行,我们使用
零
状态作为rnn步骤的起始状态。这意味着
批处理
的每个启动状态都设置为
零
。我认为,如果我们想要应用BPTT(反向传播通过时间),我们应该使外部(
非
零
)状态
输入
的步
浏览 2
提问于2017-05-09
得票数 0
回答已采纳
1
回答
稀疏特征向量序列作为LSTM的
输入
、
、
、
我需要在我的
输入
数据上建立一个LSTM模型,这是稀疏向量序列。每个示例的格式是: v_1、v_2、.、v_t,其中每个v_t都是时间t时稀疏的特征向量,格式为i_1、i_2、.、i_n,其中i_j是以1为
值
的特征索引(其他内容为0)。通常,
非
零
特征的数量约占全部特征的0.001,因此数据非常稀少。现在我要做的是,对于每个
批处理
,我将稀疏数据转换为密集的numpy矩阵,然后直接传递给LSTM (我不能将整个数据转换为密集格式,因为它不适合内存)。我相信我可以
从
使用嵌入
中
获
浏览 4
提问于2021-12-17
得票数 2
1
回答
在自定义损失函数
中
按条件行动
、
、
、
、
我在
tensorflow
中
定义了一个模型,作为损失函数,我编写了自己的自定义丢失函数。通常,除了正常的MSE功能之外,我还添加了一个惩罚术语:如果这种惩罚是由一些
输入
、元素和目标之间的产品和和给出的现在,一切都很完美,但我需要向dataset添加一种新的示例,其中一些特性和输出的
值
为
零
。因此,在
批处理
中
(在训练期间),这两种类型的示例,即没有
零
<em
浏览 1
提问于2021-02-11
得票数 0
回答已采纳
2
回答
在
TensorFlow
中
,
如何
使用python
从
张量
中
获取
非
零
值
及其索引?
、
、
A = [[1,0],[0,4]]Nonzero indices: [[0,0],[1,1]]x.ravel()[np.flatnonzero(x)]根据
非
零
索引提取元素。 下面是这些操作的。我
如何
用python在
Tensorflo
浏览 4
提问于2016-08-30
得票数 33
回答已采纳
1
回答
tensorflow
中
掩蔽() Keras函数的等价性是什么?
批处理
规范、conv和relu支持掩蔽吗?
、
我正在训练一个GRU层,其中
输入
的长度不一样。因此,我用0.0填充了
输入
的特性,使所有序列都具有相同的长度。另一方面,我不想在任何时间步骤中计算任何损失,只要
输入
的特征向量都是
零
。例如,在时间步骤1000
中
,我的
批处理
大小为34,但是这个批的样本编号33和34在时间步骤1000
中
缺少数据或特征
值
。但我已经在
tensorflow
实现了我的模型。那么,Masking()在
tensorflow
中
的等价性是
浏览 0
提问于2018-08-10
得票数 3
回答已采纳
2
回答
训练和测试期间LSTM
中
的状态重置
、
、
、
现在LSTM需要一个先前的状态作为
输入
,据我所知,它被初始化为
零
。我的问题是,在每个序列之后,状态会重置为
零
吗?例如,我有一个序列1,状态向量在这个序列
中
向前推进,然后我将下一个序列的状态向量置为0?如果是这样,
如何
对不相关的序列进行处理;例如,我有来自两个不同文本的样本,将状态
从
文本1带到文本2是没有意义的;这在实践
中
是
如何
处理的?关于测试时间,将状态向量初始化为
零
,并在整个序列中进位,或者在每个子序列之后重置状态向量?注意:我把t
浏览 1
提问于2017-01-23
得票数 0
1
回答
Tensorflow
2.0:
从
回调访问
批处理
的张量
、
、
、
、
我正在使用
TensorFlow
2.0,并尝试编写一个tf.keras.callbacks.Callback来读取
批处理
的model的
输入
和输出。我希望能够覆盖on_batch_end并访问model.inputs和model.outputs,但它们不是具有我可以访问的
值
的EagerTensor。有没有办法访问
批处理
中
涉及的实际张量值?我知道我可以使用model.predict再次运行整个模型,但这将迫使我通过网络运行每一个
输入
两次(我也可能使用
非
确定性
浏览 10
提问于2019-07-11
得票数 10
1
回答
Tensorflow
中
张量条目的平均值
在
tensorflow
一书中,我想知道你
如何
接受张量,比如说,有什么建议吗?
浏览 1
提问于2021-03-14
得票数 0
回答已采纳
2
回答
一次列车后产生NaN的神经网络
、
、
、
、
我的网络在任何培训之前都会产生正确的(
非
nan)输出。我不确定这是我
输入
的问题还是神经网络的问题,因为神经网络看起来很好。神经网络的
输入
是机器的一些特点,如总计划量、总库存量等,输出是每台机器的总计划量
如何
分配给其他机器的个别计划量。我最关心的是
输入
和输出都有很多
零
,因为数据包含所有的形式,而且不是完整的。我填补了所有的空白,把它放在一个神经网络
中
。但即使如此,我也不认为在第一班火车后,这项工作会产生南。有人能指出我的问题吗?
浏览 0
提问于2018-08-14
得票数 0
回答已采纳
1
回答
我们可以在不定义tf.placeholder的情况下提供一个
值
吗?
、
、
m.targets: y,因为initial_state没有tf.placeholder,所以我们
如何
给它喂食呢在代码
中
,它定义了一个类。定义self._initial_state = cell.zero_state(batch_size, data_type()),然后定义state = self.此外,它在类
中
定义了一个函数: @property def final_state(self): return sel
浏览 3
提问于2017-08-15
得票数 1
回答已采纳
2
回答
Tensorflow
:生成批量尺寸在1维内变化的图形?
、
我试图在
Tensorflow
中
构建一个CNN模型,其中一个批内的所有
输入
都是相同形状的,但在批间
输入
在维度1上有所不同(即小批大小相同,而小型
批处理
形状不同)。为了使这更清楚,我有数据(Nx23x1)的各种
值
N,我首先按升序排序。在每批(50个样本)I
零
垫每一个样本,使每个N_i等于最大N在其小批。现在我已经为
批处理
输入
定义了
Tensorflow
占位符: input = tf.placeholder(tf.float
浏览 4
提问于2017-04-28
得票数 1
回答已采纳
1
回答
如何
预处理高强度MRI图像?
、
、
我有一个大型的MRI数据集,用于图像分割任务,不能直接放入Colab
中
的内存
中
,您可以使用我放在末尾的链接访问数据。484个标签,每个标签的形状为(240,240,155)加载并读取图像。(我用过奶嘴)删除第一层和最后一层,因为它们不包含有用的信息。 堆栈/将它们
中
的每一个添加到具有for循环的数组
中
。
浏览 0
提问于2021-11-26
得票数 1
回答已采纳
1
回答
为什么batch_normalization在训练=真时产生全
零
输出,而当训练=假时产生
非
零
输出?
、
我正在遵循
Tensorflow
教程。.]], shape=(1, 10), dtype=float32) 而test_out和training=False是随机的
非
零
向量。
浏览 2
提问于2021-06-05
得票数 0
回答已采纳
1
回答
在LSF命令
中
返回管道命令的退出代码
、
、
、
有很多关于
如何
返回一个命令的退出代码的问题和答案,但我的案例有点不同……bsub <switches> "command | colorize"bsub <switches> "command" 退出
值
是
浏览 8
提问于2015-01-23
得票数 1
1
回答
TensorFlow
布尔索引
、
、
让我们直截了当,目前,我想索引一个张量,并将
非
零
项改为-1和
零
项,但我不知道
如何
在
TensorFlow
中
这样做。y_[y_ != 0].assign(-1)原因是
TensorFlow
似乎不支持布尔索引。我怎么才能修好它?顺便说一句,boolean_mask似乎不适合我,因为我不想返回y_的一部分,我只想让y_改变它的
值
。 谢谢!
浏览 3
提问于2017-11-18
得票数 0
回答已采纳
2
回答
返回坏
值
的Python os.system()
、
、
被测试的程序在正常操作时返回
零
,对于错误情况返回负值。我将此
值
与作为确定传球/失败的一部分的预期
值
(并非总是为
零
)进行比较。问题是通常退出的测试用例返回
零
,但是os.system()返回-1073740940。到目前为止,其他
非
零
回报正在按预期运行,尽管样本很小。我非常确信被调用的程序正在返回
零
,因为我在返回之前将返回
值
输出到std。此外,如果使用来自命令行或
批处理
文件的相同
输入
运行程序,
浏览 0
提问于2020-06-03
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深入分析交易批处理技术带来的影响
利用摇滚乐队学习TensorFlow,Word2Vec模型和TSNE算法
动态神经网络工具包Dynet
快速掌握TensorFlow(三):激励函数
TensorFlow实现识别手写数字识别
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券