腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
来自
官方网站
的
CIFAR-10
数据
集
进行
梯度
爆炸
python
、
python-3.x
、
machine-learning
、
pytorch
、
horovod
我不
使用
torch vision.datasets.CIFAR10
的
CIFAR10
数据
集
,而是自己拆分
数据
集
。因此,我从official website下载了
数据
集
,并拆分了
数据
集
。d = {b'data': test_data, pickle.dump(d, f) 然而,我发现如果我<em
浏览 26
提问于2020-11-09
得票数 1
回答已采纳
2
回答
神经网络输入缩放
tensorflow
、
neural-network
、
pytorch
、
backpropagation
我在
CIFAR-10
数据
集
上训练了一个简单
的
全连接网络:import torch.nn as nnimport请注意,我没有对输入
进行
任何白化(没有每个通道
的
均值减法) 接下来,我将模型输入放大了255倍,用outputs = net(inputs*255)替换了outputs = net(inputs)。我查看了
梯度
,它们似乎在几次迭代后呈
爆炸
性增长,导致所
浏览 0
提问于2020-04-27
得票数 0
1
回答
如何根据特定
的
类名加载
CIFAR-10
数据
集
?
python
、
machine-learning
、
tensorflow
、
deep-learning
、
keras
我
使用
CIFAR-10
数据
集
进行
深入学习,但我只想为果树类指定我
的
数据
集
。我们知道我们
使用
了:加载所有
CIFAR-10
数据
集
。如何仅为水果类而不是所有
数据
加载
数据
?
浏览 2
提问于2016-11-18
得票数 2
回答已采纳
1
回答
如何解开
CIFAR-10
,加载批处理和拆分
数据
集
?
python-3.x
、
machine-learning
、
conv-neural-network
、
pickle
、
upickle
使用
卷积神经网络对
CIFAR-10
数据
集
进行
分类。我不能理解: 1)在何处提取
CIFAR-10
数据
集
文件2)如何
使用
pickle框架加载批次3)将
数据
集
拆分为训练
数据
和测试
数据
请帮助编写代码,在jupyter笔记本上
使用
python 3.6。可能是因为我在错误
的
位置保存了
CIFAR-10
文件。
浏览 23
提问于2019-04-02
得票数 0
1
回答
IMAGENET -是否可以
使用
仅包含10个类
的
图像来训练caffe alexnet
caffe
、
conv-neural-network
、
imagenet
我
使用
caffe/examples/cifar10来训练用于分类
的
模型,我想
使用
这个结果来
进行
可视化。但我发现cifar10图像都是32*32,这太小了,不能
进行
单位可视化。现在,我想尝试
使用
另一个
数据
集
,即Imagenet。 但在我
的
例子中,我只需要十个类,而不是一千个类,就像
cifar-10
一样。我发现IMAGENET提供
的
数据
太大了,无法下载并提取这十个类
浏览 0
提问于2017-05-31
得票数 1
1
回答
在AWS上培训
的
成本?
amazon-web-services
、
amazon-ec2
、
deep-learning
、
resnet
我
来自
学术界,在那里我可以
使用
HPC集群。现在我正在尝试在AWS上部署一些东西。我知道你可以要求更快或更多
的
GPU,所以我也不知道速度与成本
的
关系;这里
的
任何见解也是值得感谢
的
。在
CIFAR-10
上训练ResNet-50
浏览 0
提问于2018-02-07
得票数 0
1
回答
为什么我
的
损失函数倾向于不协调,但是当x和y
的
协调被交换时,它是很好地工作
的
。
python-3.x
、
pytorch
、
linear-regression
、
gradient-descent
根据个人
的
工资来计算预期
的
工作年限。
数据
集
的
可视化可在下面查看。参数如下所示。input_dim, output_dim) out = self.linear(x)当我将我
的
训练功能应用到
数据
集
时如果测试列车拆分如下,请注意元组
的
顺序。:为什么会发生这种情况,AFAIK模型并不关心
数据
,因为它试图
浏览 4
提问于2022-05-08
得票数 2
1
回答
Keras精度和实际精度正好相反。
python
、
machine-learning
、
keras
、
neural-network
、
artificial-intelligence
我正在学习神经网络,目前正在
使用
Keras库在CFAR-10
数据
集
上实现对象分类。当我训练我
的
模型超过50个时代时,我
的
精度达到了0.9
的
90%。此外,当我
使用
测试
数据
集
对其
进行
评估时,我获得了大约
的
准确性。90%。] 但是,当我通过对每个测试
数据
图像
进行
预测来手工计算精度时,我获得了大约11%
的
准确性(这与随机
进行
预测
浏览 0
提问于2019-06-02
得票数 3
回答已采纳
1
回答
用
CIFAR-10
数据
集
在VGG16中
进行
TensorFlow训练,不能获得很好
的
精度
tensorflow
我是个学习ML
的
初学者。我正在研究VGG16模型在TensorFlow中。我
的
书房是。 它们都很好用。但是现在我想模拟案例2.
的
过程,尝试
使用
VGG16 16-A模型来
进行
CIFAR-10
数据
<
浏览 0
提问于2018-11-26
得票数 2
回答已采纳
1
回答
适合于测试机器学习算法
的
样本
数据
集
dataset
、
clustering
我是机器学习
的
新手,我刚刚看到了sci
的
包。在这个有趣
的
页面上,有许多玩具
数据
集
用来测试不同
的
聚类算法。每个
数据
集
都有一个独特
的
模式,根据
数据
集
的
不同,有些算法
的
性能优于其他算法。我想问为什么选择这些
数据
集
作为算法
的
测试?它们
的
哪些特性适合用于测试?是否有其他具有公共属性
的
<
浏览 0
提问于2020-04-27
得票数 2
回答已采纳
1
回答
在回归神经网络
的
Keras中
使用
SGD优化器
的
NAN值
python
、
optimization
、
keras
、
nan
、
sgd
朋友, 我试着训练一个神经网络来
进行
回归。当
使用
Keras
的
SGD优化器类时,在第一步之后,我突然从我
的
网络中获得了NaN值作为预测。在我
使用
Adam优化器类
进行
训练之前,一切都运行得很好。我已经尝试改变SGD
的
学习率,但在第一步和编译后,仍然会出现NAN值作为模型预测。因为我
的
训练是
使用
Adam优化器
的
,所以我不认为我
的
输入会导致NAN,我已经检查了我
的
输入值是否有NAN,并删除
浏览 4
提问于2021-01-10
得票数 0
1
回答
YOLO v1中
梯度
爆炸
问题
的
求解
python
、
pytorch
、
object-detection
、
nan
、
yolo
现在,我正在尝试
使用
YOLOv1代码来训练对象检测。一开始我
使用
的
是momentum和weight_decay,但是随着时间
的
推移,训练
的
损失变成了NaN。据我所知,这是由于
梯度
爆炸
,所以我寻找了一些方法来摆脱这个NaN,然后我忽略了momentum和weight decay。因此,我没有得到任何NaN,但是我
的
模型不能像我预期
的
那样收敛。我
使用
VOC 2007和2012年
的
数据
<
浏览 10
提问于2021-06-17
得票数 2
回答已采纳
1
回答
用
CIFAR-10
培训Resnet所需
的
时间
tensorflow
、
neural-network
、
deep-learning
、
resnet
我正在编写一个神经网络,在
CIFAR-10
数据
集
上训练Resnet .论文提到了大约60000个时代
的
培训。此外,这需要多长时间来训练(假设CPU仅为20层或32层ResNet)?按照上面对一个时代
的
定义,似乎需要很长
的
时间. 我期待
的
东西大约2-3个小时,这相当于大约10个通过50000图像训练
集
浏览 0
提问于2018-09-02
得票数 1
回答已采纳
1
回答
在LSTM中处理长时间步长序列
python
、
tensorflow
、
machine-learning
、
keras
、
lstm
我正在尝试
使用
LSTM来预测关于时间步长序列
的
信息。 我
的
数据
看起来是这样
的
:我有几个相对较长
的
序列(>100000个时间步)
的
不同样本,我正在尝试解决N类分类问题,其中每个样本都被标记为不同
的
ID。现在,我正在尝试了解如何正确地准备我
的
数据
,以便LSTM分别对每个样本
进行
训练。但周围
的
许多博客文章(如)告诉我,在非常长
的
序列上训练LSTM可能会损害训练。因
浏览 0
提问于2019-03-18
得票数 1
2
回答
GD、批GD、SGD和小型批处理SGD有什么不同?
machine-learning
、
neural-network
、
gradient-descent
这四种
梯度
下降函数之间有何不同?批GD小批量SGD
浏览 0
提问于2019-06-15
得票数 3
回答已采纳
2
回答
Int8 (字节)操作对深入学习是如何有用
的
?
deep-learning
、
tensorflow
、
theano
Nvidia计划在他们
的
泰坦卡上增加对int8操作
的
硬件支持,并瞄准深度学习。我试图了解它是如何有用
的
,以及哪些类型
的
网络将从中受益。我知道FP16而不是FP32对DL应该是有用
的
,但不确定int8能做什么。有一些研究表明,您可以对FP32
进行
完全精确
的
训练,然后将其舍入一个字节--但这不会加速或减少训练时
的
内存占用。
浏览 0
提问于2016-07-25
得票数 3
1
回答
用于训练具有较小图像尺寸
的
Alexnet
的
参数微调
caffe
、
conv-neural-network
Alexnet打算
使用
227x227x3
的
图像大小。如果我想训练图像尺寸更小,比如32x80x3,需要微调
的
参数是什么?我最初用64x80x3
的
图像大小
进行
训练,除了第一个Conv1层中
的
步幅外,所有参数都与提供
的
相同,它被更改为2。我实现了非常高
的
测试精度,高达0.999。然后在实际
使用
中,我也获得了相当高
的
检测准确率。 然后我更喜欢
使用
较小
的
图像尺寸32x80x3。我
使
浏览 1
提问于2015-08-20
得票数 0
2
回答
表现得像tfp.math.diag_jacobian
的
tf.gradient
python
、
tensorflow
、
diagonal
、
gradient
我尝试
使用
来自
输入
数据
的
损失函数
的
梯度
来计算输入
数据
的
噪声:loss是一个大小为(n X 1)
的
数组,其中n是
数据
集
的
数量,m是
数据
集
的
大小,输入是(n X m)
的
数组,其中m是单个
数据
集
的
大小。我
浏览 0
提问于2019-03-12
得票数 1
1
回答
你能总结渐变并成批应用吗?
machine-learning
、
tensorflow
、
backpropagation
在那里,训练
数据
是在一
集
中收集
的
。当插曲完成时,
数据
被用来
进行
反向传播。但是,没有将计算出
的
梯度
应用到模型中,而是将它们存储在缓冲区中。在应用之前,会对多
集
的
梯度
进行
汇总。 我不知道这样做是否合理。通常情况下,如果模型在第一
集
数据
训练后非常好,则其他
集
的
梯度
将接近0(没有变化)。如果您
使用
教程
浏览 0
提问于2018-04-26
得票数 0
1
回答
TFLearn -到NaN丢失
的
大型
数据
集
python
、
machine-learning
、
tensorflow
、
deep-learning
、
tflearn
我有一个大
的
(对我来说)
数据
集
,大约有45万个条目。28.0, 72.0, 464.0, 672.0, 0, 24.0, 4.0, 0, 28680.0, 0, 0, 18.0, 0, 0, 4319159.0, 24.0, 28.0, 16.0] 我正在
使用
尝试根据这些
数据
创建一个分类模型我是从下面的TFlearn 中得出这个结论
的
。这个程序在一小部分
数据
上运行得很好,250 0 s和2 5 0 1 s。我有80%
的
准确率,我认为增加一吨
的<
浏览 4
提问于2016-12-06
得票数 2
点击加载更多
相关
资讯
模型泛化不必随机训练全批量GD媲美SGD,网友:计算成本负担不起
另一种可微架构搜索:商汤提出在反传中学习架构参数的SNAS
清华&斯坦福提出深度梯度压缩DGC,大幅降低分布式训练网络带宽需求
基于 UAI-Train 平台的分布式训练
只有加法也能做深度学习的AdderNet开源了
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
语音识别
活动推荐
运营活动
广告
关闭
领券