腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
当
使用
Tensorflow
数据
集
from_tensor_slices
()
时
,
是否
可以
不在
每个
训练
步骤
中
加载
新
的
批次
?
、
、
我想在同一批处理上
训练
几个
步骤
,因为我想让CPU有时间
加载
下一批处理。我
使用
可重新初始化
的
迭代器和tf.data.Dataset.from_tensor_slices((tf.range(n_train))),然后
使用
.map()按索引获取
数据
集
。我希望在批处理上运行
的
训练
步骤
至少与
加载
下一个批处理所需
的
训练
步骤
一样多。
浏览 5
提问于2019-11-19
得票数 0
1
回答
Rnn预测率受批量大小
的
影响?
、
我正在
使用
Tensorflow
RNN来预测一系列序列。我
使用
Grucell和dynamic_rnn。在
训练
时
,我输入
训练
数据
集
,我将其分成8批,每批
的
批大小为10 (1批
的
形状为[10, 6, 2],即[batchsize, seqlen, dim])。为了防止过拟合,
当
训练
数据
集中
的
预测率开始超过80%
时
,我会停止
训
浏览 6
提问于2018-02-04
得票数 0
1
回答
小批量梯度下降
是否
消除了分层对
训练
数据
集
的
影响?
、
、
在
数据
预处理
中
,
使用
分层洗牌确保原始
数据
集
的
分布反映在培训、测试和验证
数据
集中。 小型批处理梯度下降
使用
随机洗牌来确保小批
中
的
随机性.我
的
疑问是-为什么我们应该在我们
的
数据
集
上执行分层洗牌,如果它要在
训练
期间以随机
的
方式被洗牌?
浏览 0
提问于2020-08-08
得票数 2
回答已采纳
1
回答
用
TensorFlow
进行线性回归
是否
需要调整批大小或时间?
、
、
、
、
我正在写一篇文章,集中讨论一个简单
的
问题--在存在标准、正常或均匀噪声
的
情况下,对大型
数据
集
进行线性回归。我从
TensorFlow
中选择了Estimator作为建模框架。我发现,在这样一个机器学习问题上,
当
训练
步骤
的
数目足够大
时
,超参数调整实际上并不重要。所谓超参数,是指
训练
数据
流
中
的
批次
大小或历元数。
是否
有
浏览 2
提问于2017-11-05
得票数 1
回答已采纳
2
回答
每批和历时
的
验证和培训损失
、
、
我正在
使用
Pytorch运行一些深度学习模型。我目前正在跟踪
每个
时期
的
训练
和验证损失,这是非常标准
的
。然而,跟踪
每个
批次
/迭代
的
训练
和验证损失
的
最佳方法是什么?对于
训练
损失,我
可以
在
每个
训练
循环后保留一个损失列表。但是,验证损失是在整个时期之后计算
的
,所以我不确定如何计算每批
的
验证损失。我能想到<em
浏览 3
提问于2021-01-09
得票数 0
1
回答
tensorflow
.keras.model.fit无法读取
数据
集
格式
的
验证
数据
、
、
、
、
此link
的
tensorflow
教程(请参阅“
训练
模型”部分)表明,
可以
向tf.keras.model.fit提供
数据
集
(
数据
、标签)。然而,当我将我
的
数据
集
分配给val_data
时
,如下所示,无论
训练
状态如何,验证
数据
的
损失都是0 (见下图)。然而,在我
的
例子
中
,我提供了一个
数据
集<
浏览 53
提问于2020-11-05
得票数 1
1
回答
Tensorflow
数据
集
- batch_size和steps_per_epoch
、
、
、
I处理一个图像分割问题,其中有一个以
tensorflow
数据
集
格式提供
数据
的
管道,并
使用
tensorflow
迭代器。现在,我已经将
训练
图像
的
数量从之前
的
250张增加到了500张。我有一条独立
的
图像增强管道。我
的
问题是 即使我
使用
相同
的
batch_size=16,也会因为图像数量
的
增加而产生影响吗?我设定step_per_ep
浏览 5
提问于2020-11-11
得票数 0
回答已采纳
1
回答
Model.fit()方法在
使用
tf.data.Dataset
时
如何处理批处理?
、
、
我在
使用
tensorflow
2。
当
使用
带有Model.fit()
的
tf.data.Dataset方法
时
,参数'batch_size‘将被忽略。因此,为了在批处理上
训练
我
的
模型,我必须首先通过调用tf.data.Dataset.batch(batch_size)将我
的
样本
数据
集
转换为批量样本
数据
集
。然后,在阅读了文档之后,我不清楚.fit()方法将如何
浏览 1
提问于2020-10-14
得票数 3
1
回答
在
加载
Tensorflow
数据
集
以进行培训
时
,何时
使用
.repeat?
、
我已经看到了在为
Tensorflow
dataset进行
加载
、洗牌、映射、批处理、预取等过程中
使用
.repeat()
的
教程,而其他教程则完全跳过它。我知道什么是重复,它是如何
使用
的
,但我无法确定何时
使用
,何时不
使用
。 有什么帮助吗?
浏览 0
提问于2021-09-22
得票数 2
回答已采纳
1
回答
在
训练
神经网络
中
混洗批量
数据
、
、
、
、
我有6.5 GB
的
训练
数据
要用于我
的
GRU网络。我打算将
训练
时间分开,即暂停和恢复
训练
,因为我
使用
的
是笔记本电脑。我假设我需要几天
的
时间来
训练
我
的
神经网络,
使用
整个6.5 GB,所以,我将暂停
训练
,然后在其他时间再次恢复。 这是我
的
问题。如果我要打乱
训练
数据
的
批次
,神经网络会
浏览 13
提问于2017-07-31
得票数 2
回答已采纳
1
回答
每个
时代
的
验证
步骤
和
步骤
之间有什么区别?
、
我试图理解验证
步骤
和每一个时代
的
步骤
之间
的
区别,谁能告诉我这两个术语之间
的
区别吗?我也想知道,它对
训练
有什么帮助,我们应该设定多少呢?
浏览 0
提问于2021-06-26
得票数 0
回答已采纳
1
回答
TensorFlow
Dataset
的
函数cache()和prefetch()做什么?
、
、
、
、
我正在遵循
TensorFlow
的
教程。() 创建一个
数据
集
,该
数据
<e
浏览 7
提问于2019-12-07
得票数 6
回答已采纳
2
回答
在序列模型
中
,
是否
有可能有不同时间
步骤
的
训练
批次
来减少
每个
输入序列所需
的
填充量?
、
、
、
、
我想
训练
一个具有可变长度输入
的
LSTM模型。具体来说,我想
使用
尽可能少
的
填充,同时仍然
使用
小型
批次
。 据我所知,每一批输入都需要一个固定
的
时间
步骤
,这就需要填充。但是不同
的
批次
对于输入可能有不同
的
时间
步骤
,因此在每批输入
中
,只需将输入填充到同一批中最长
的
输入序列
的
长度。这就是我想要实现
的
。我需要做
的</
浏览 0
提问于2020-11-26
得票数 4
回答已采纳
1
回答
tensorflow
中
的
tf.GraphKeys.TRAINABLE_VARIABLES和tf.GraphKeys.UPDATE_OPS有什么不同?
以下是
tensorflow
中
tf.GraphKeys
的
,例如TRAINABLE_VARIABLES:将由优化器
训练
的
变量对象
的
子集。我知道tf.get_collection(),它
可以
找到你想要
的
张量。
使用
tensorflow
.contrib.layers.batch_norm()
时
,参数updates_collections默认值为GraphKeys.UPDATE_OPS。我们如何理解这些集合,以
浏览 0
提问于2018-01-15
得票数 18
回答已采纳
1
回答
一种用于批量
训练
的
张量流热编码
、
、
、
我
的
训练
数据
包含大约1500个标签(字符串,
每个
记录一个标签),我想进行批量
训练
(只需将一批
加载
到内存
中
,以更新神经网络
中
的
权重)。我想知道
tensorflow
中
是否
有一个类为
每个
批次
中
的
标签进行一次热编码?在sklearn
中
我们
可以
做
的
事情 onehot_
浏览 7
提问于2017-10-01
得票数 0
2
回答
有没有办法在gpu计算
时
并行
加载
数据
?
、
、
、
、
我正在
使用
keras和
tensorflow
进行深度学习。我处理稍微大一点
的
数据
集
(图像),所以我不能一次
加载
整个
数据
集
,相反,我
加载
了8000张图像
的
批次
,并
使用
model.fit()进行
训练
(下面的代码片段)。model.save_weights(weights_file) total_val_loss = history_train.h
浏览 1
提问于2017-10-27
得票数 1
1
回答
在
Tensorflow
中
使用
大型numpy数组
中
的
数据
集
、
、
、
、
我正在尝试
加载
一个
数据
集
,该
数据
集
存储在我
的
驱动器上
的
两个.npy文件
中
(用于特征和地面实况),并
使用
它来
训练
神经网络。/groundtruth.npy") / 255 dataset = tf.data.Dataset.from_tensor_slices((data, labels)) 调用
from_tensor_slices
()方法
时
引发<em
浏览 140
提问于2021-11-16
得票数 0
回答已采纳
1
回答
使用
tf.data.Dataset实现有效
的
净输入形状错误
、
、
当
输入一个tf.data.Dataset
训练
EfficientnetB0模型
时
,我得到了以下错误:我真的想知道为什么会发生这种情况,因为当我从我
的
数据
集
创建批处理
时
steps_per_epoch=tra
浏览 0
提问于2020-04-25
得票数 1
2
回答
希望
使用
tensorflow
拆分从csv获得
的
训练
数据
和测试
数据
、
我想
使用
tensorflow
拆分csv
的
训练
和测试
数据
,但我在张量
中
找不到像np.loadtxt这样
的
顺序,并尝试
使用
numpy进行拆分并将其转换为张量,但我得到了类似以下
的
错误:下面是我
的
代码: imp
浏览 0
提问于2019-03-24
得票数 0
2
回答
批处理在
TensorFlow
中
的
作用
、
、
我是
TensorFlow
和机器学习
的
新手,并且发现了批处理
的
概念。 将DataSets分成批
的
目的是什么?
TensorFlow
如何
使用
不同
的
子集对变量执行优化任务?
浏览 2
提问于2017-10-22
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorFlow与Keras:Python轻松玩转图像识别
一步步提高手写数字的识别率(1)
通过pin_memory 优化 PyTorch 数据加载和传输:工作原理、使用场景与性能分析
Pytorch用BERT对CoLA、新闻组文本数据集自然语言处理NLP:主题分类建模微调可视化分析
TensorFlow基础入门
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券