腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2562)
视频
沙龙
1
回答
为什么
在
卷积
神经网络
训练
过程中
损失
会
激增
?
、
、
、
、
我正在Pytorch中
训练
一个简单的CNN,用于
在
一个非常小的数据集上进行分割(只有几张图像,因为这只是为了验证概念)。由于某些原因,
在
返回之前的
训练
过程中
,
损失
飙升到6,IoU随机下降到0(联合精度指标的交集)。我想知道
为什么
会发生这种事?
浏览 39
提问于2020-02-23
得票数 0
回答已采纳
1
回答
卷积
神经网络
(tensorflow)
损失
函数的周期性
、
、
、
、
我正在使用在Tensorflow中实现的
卷积
神经网络
(cnn)进行图像分割。我有两个类,我使用交叉熵作为
损失
函数和Adam优化器。我正在用大约150张图片
训练
这个网络。
在
训练
过程中
,我看到了这种周期性的模式,
训练
损失
一直下降到有一对高的值,然后迅速下降到以前的水平。
浏览 0
提问于2018-06-05
得票数 0
1
回答
基于
损失
的超参数整定
神经网络
、
、
、
在
超参数整定
过程中
,我们选择一个度量来衡量模型的性能。标准的例子: f1评分,精确,回忆,AUC . 一般情况下,对于
神经网络
的
训练
,反向传播
会
根据
损失
函数的值来优化模型的权重。接下来的问题是:
为什么
人们不使用
损失
函数作为
神经网络
优化的主要性能指标?
浏览 0
提问于2018-12-17
得票数 1
回答已采纳
1
回答
什么是
训练
的准确性和
训练
的
损失
,
为什么
我们需要计算它们?
、
我是Lstm和机器学习的新手,我正在努力理解它的一些概念。下面是我的Lstm模型的代码。model = Sequential()model.add(LSTM(50))model.add(Dense(vocab_size, activation='softmax')) early_stopping = EarlyStopping(monitor='val_loss',
浏览 0
提问于2021-01-14
得票数 0
回答已采纳
1
回答
CNN模型所使用的哪些功能应该被功能存储
在
实际中?
、
、
、
、
问题在于如何利用
卷积
神经网络
这样的深度学习模型进行图像分类,该模型作为
训练
过程的一部分进行自动特征工程(使用
卷积
层)。对于纯图像分类/分割模型,有一个特征存储有意义吗?哪些特性应该存储
在
功能存储中?
卷积
层的输出?但是
在
训练
过程中
,它们不能被重用,因为
在
训练
过程中
,它们会被
卷积
层重建。
浏览 0
提问于2021-02-09
得票数 0
1
回答
为什么
在
微调时必须冻结批处理归一化层的所有内部状态?
、
、
、
、
以下内容来自Keras教程 这种行为是
在
TensorFlow 2.0中引入的,目的是使layer.trainable = False能够
在
convnet微调用例中产生最常见的行为。
为什么
我们要在微调
卷积
神经网络
时冻结这一层?是因为tensorflow角的某些机制,还是由于批处理的规范化算法?我自己做了一个实验,我发现如果可
训练
不被设置为错误,这个模型往往
会
导致灾难性的忘记以前学过的东西,并且
在
最初的几个时代还会有很大的
损失
。原因是什
浏览 2
提问于2020-07-21
得票数 4
回答已采纳
1
回答
深度学习模型是否远远超过了其数据集估计熵所需的容量?
、
、
在
我试图解释的时候,请容忍我。我把MNIST的一个很大的“
训练
”子集作为我的豚鼠。3)对直方图进行归一化处理,得到真实概率分布的估计值。他的书“http://www.inference.org.uk/itila/book.html”第40章) 7)因此,作为粗略的估计(并且谨慎地),我们可以说,我们需要一个由95个神经元组成的
神经网
浏览 0
提问于2018-03-31
得票数 7
1
回答
为什么
迷你批次
会
降低我的网络MNIST分类器?
、
、
、
我
在
python中从零开始制作了一个
卷积
神经网络
来分类MNIST手写数字(集中式)。它由8个3x3核的单
卷积
网络、2x2个最大池层和一个以softmax为激活函数的10个节点密集层组成。我使用交叉熵
损失
和SGD。 当我把整个
训练
集
训练
成一个批次大小为1的时代时,我的准确率为95%。然而,当我尝试一个较大的批次大小(16,32,128)时,学习变得非常嘈杂,最终的准确率
在
47%-86%之间。
为什么
我的网络
在
小批量上表现
浏览 0
提问于2021-02-04
得票数 0
3
回答
自动编码器输出和特征向量不正确
、
、
decoded_imgs = autoencoder.predict(X_valid_autoencodeur)
在
3个时期后,验证和
训练
损失
变得非常低,并且不会改变 重建的图像都是黑色的,特征向量都是一样的。我已经
训练
了100个时代的自动编码器,我应该
训练
更多吗?我的代码有没有出错,这可以解释糟糕的重构?
浏览 26
提问于2019-07-16
得票数 1
回答已采纳
1
回答
为什么
迁移学习
会
导致预
训练
完成后随机重新启动错误/丢失?
、
、
、
、
我今天
在
尝试迁移学习,我不理解我得到的一些结果。我
在
大约100,000行Word2Vec嵌入上
训练
了一个
卷积
神经网络
,
在
我的结果中发现了一个很大的方差差距。这里图表的焦点是底部的线条。
训练
损失
在
多个时期减少,验证
损失
很容易收敛。 显然,这是
训练
/开发误差之间的方差问题。为了解决这个问题,我知道添加更多的数据是最简单的解决方案。但由于我的笔记本电脑没有足够的内存来
在</e
浏览 1
提问于2017-10-21
得票数 1
2
回答
流动tf.losses.cosine_distance大于1
、
、
我
在
Tensorflow上
训练
一个
神经网络
,我使用tf.losses.cosine_distance作为
损失
函数。
训练
进展顺利,但我担心的是,
在
训练
过程中
,我的
损失
值大于1。
损失
是如何计算的?是一批
损失
的总和吗?
浏览 1
提问于2018-01-05
得票数 4
回答已采纳
1
回答
PyTorch闪电-如何自动重新加载最后一个检查点时,失去意外的尖峰?
、
我面临的问题是,
在
训练
过程中
,我的
损失
会意外地
激增
,如下所示:当发生这种情况时,我希望自动重新加载最后一个检查点,重置优化器并恢复培训。我该怎么做?编辑:我试着用fp64进行精确的
训练
,虽然后来
在
训练
中仍然出现了不稳定的学习问题。
浏览 4
提问于2022-08-17
得票数 0
2
回答
软最大交叉熵
损失
爆发
、
、
、
、
我正在创建一个用于像素级分类的深
卷积
神经网络
。我正在使用adam优化器,具有交叉熵的softmax。 我问了一个类似的问题,找到了,但我得到的答案并没有导致我解决这个问题。我做了很多事情,例如调整
训练
和感应器率,尝试不同的优化器等。
损失
永远不会减少到500以上。我现在不洗牌我的数据。使用sigmoid代替softmax
会
导致这个问题的发生。还应该提到的是,当
损失
很小时,我的准确度只有80%左右,我需要做得更好。,
为什么
我的
损失
会
突然
浏览 0
提问于2018-02-27
得票数 1
1
回答
如何在分布式模式下运行TensorFlow的示例代码?
我是TensorFlow新手,尝试
在
分布式模式下运行它。现在,我
在
中找到了它的正式文档。但是它缺少一些loss函数。 有人能帮我完成这个任务吗?这样我就可以运行您的代码了吗?
浏览 2
提问于2016-06-12
得票数 0
回答已采纳
2
回答
神经网络
优化
、
、
、
神经网络
是通过尝试和错误、数据科学家来优化,还是通过精确的数学方程来优化值?
浏览 0
提问于2021-03-05
得票数 -1
1
回答
CNN:正常情况下,验证
损失
的减少比
训练
损失
要慢得多?
、
、
我正在
训练
一个用于图像语义分割的CNN U-网模型,但是
训练
损失
似乎以比验证
损失
更快的速度下降,这正常吗?培训和验证的
损失
可以从下面的图像中看到:
浏览 3
提问于2020-08-07
得票数 3
回答已采纳
2
回答
tensorflow
卷积
层中的自定义滤波器
我从各种教程中学习了Tensorflow,我想知道是否可以为
卷积
网定义一个自定义过滤器。
浏览 2
提问于2016-06-27
得票数 6
回答已采纳
1
回答
CNN的反向传播
训练
、
、
、
、
我以前
在
浅层(一层或两层)
神经网络
中工作,所以我对它们的工作原理有一定的了解,
在
训练
过程中
很容易直观地看到向前和向后传递的导子,目前我正在研究深层
神经网络
(更确切地说,是CNN),我读过很多关于它们的
训练
的文章,但我仍然无法理解CNN
训练
的总体情况,因为
在
某些情况下,使用预
训练
层的人使用自动编码提取
卷积
权,
在
某些情况下,随机权值被用于
卷积
,然后使用反向传播来<em
浏览 4
提问于2016-07-11
得票数 2
1
回答
为什么
使用受限的Boltzmann机器而不是多层感知器?
、
、
我试图理解限制Boltzmann机器(RBM)和前馈
神经网络
(NN)之间的区别。我知道,RBM是一个生成模型,它的思想是重建输入,而NN是一个判别模型,其中的思想是预测标签。但是我不清楚的是,
为什么
你不能仅仅用
神经网络
来建立一个生成模型呢?特别是,我想到的是深层信仰网络和多层感知器。 假设我对NN的输入是一组名为x的注释,而我的输出是一组节点y。
在
一个判别模型中,我
在
训练
过程中
的
损失
将是y与我希望x产生的y值之间的差额(例如,类标签的基本真理概率)。但
浏览 11
提问于2015-08-07
得票数 16
2
回答
卷积
神经网络
中特征映射的滤波器
、
、
、
、
在
卷积
神经网络
中,我应该使用什么样的滤波器来提取特征图?我最近读到了关于
卷积
神经网络
的文章,我了解到我们使用(一组滤波器)
在
每个
卷积
层生成一组特征映射,通过对前一层输出的滤波器进行
卷积
,生成一组特征映射。 (1)我们如何获得这些过滤器?
浏览 1
提问于2015-12-05
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
DHVT:在小数据集上降低VIT与卷积神经网络之间差距,解决从零开始训练的问题
为什么之ControlNet
Pytorch 学习引发的思考
深度学习笔记12:卷积神经网络的Tensorflow实现
让你的电脑拥有“视力”,用卷积神经网络就可以!
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券