腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
Libtorch1.5
和
C++
中
的
优化
器
选项
更新
学习
率
、
、
随着PyTorch
的
C++
API1.5稳定版本
的
发布,一些对象接口发生了一些变化。例如,现在 optimizer.options.learning_rate(); 不能工作(这里
使用
的
优化
器
是Adam),因为learning_rate已经改为lr (参见https://github.com/pytorch/pytorch/releases),但是
优化
器
不再有
选项
(n
浏览 51
提问于2020-06-17
得票数 0
回答已采纳
1
回答
梯度下降
优化
器
会改变我
的
偏见吗?如果是这样,是按
学习
率
计算
的
吗?
、
、
我正在尝试在没有太多外部帮助
的
情况下编写线性回归程序,我已经在一定程度上成功地完成了这项工作,因为我
的
MSE通常返回一个很小
的
数字,并且输出
的
最佳拟合结果看起来是正确
的
。我只是有一个关于下面最后一行代码
的
问题。
优化
器
是否也改变了偏差,如果是的话,是通过
学习
率
改变
的
吗?
浏览 17
提问于2019-01-30
得票数 0
回答已采纳
1
回答
当你
的
神经网络变大时,你
的
学习
速度应该变小吗?
、
、
当你增加更多
的
层
和
更多
的
神经元时,你
的
学习
率
会下降,这是正确
的
吗? 所以,一般来说,网络越大,
学习
速度就越小?
浏览 0
提问于2021-04-28
得票数 1
1
回答
LSTM训练模式
、
、
、
、
我是NNs
的
新手,我正在用LSTM做我自己
的
"Hello World“,而不是复制一些东西。我选择了一个简单
的
逻辑,如下:_X0=[1,5,9] _Y0=[1] _X1=[0,5,9] _Y1=[0] ... 200 more records like this.这个简单
的
(?)可以训练逻辑以达到100%
的
准确
率
。我运行了许多测试,我
浏览 7
提问于2017-04-17
得票数 4
1
回答
为什么tensorflow联合模型
的
性能比单个Keras模型差
我正在评估keras
和
tensorflow联合模型
的
性能以解决回归问题。性能基本上是两者
的
MSE。唯一
的
区别是: 1.拆分数据集
的
方式。worksheetSNN.write(row,col,val)当前
的
结果是(Local_Loss用于keras模型,FL_Loss_arr:是每个客户端
的
损失,Fed_eval_arr:是聚合模式
浏览 2
提问于2019-06-09
得票数 1
2
回答
咖啡因
的
损失不会减少
、
、
、
我是caffe
的
新用户,我基本上对模型做了一些小
的
修改,以根据我自己
的
数据进行训练。我注意到,在680次迭代之后,损失并没有改变。我想这可能是因为我在像素上应用了1/255
的
比例,但我已经删除了它,没有任何变化。我
的
数据在LMDB
中
(1lmdb用于训练图像,1lmdb用于训练标签,1用于验证,1用于验证标签),标签是0
和
1存储为uint8。I0831 12:16:24.356781 2989601728 sgd_s
浏览 4
提问于2017-09-01
得票数 0
2
回答
学习
率
对后背助力梯度
的
影响
、
、
我想知道在神经网络层
的
反向传播过程
中
,是否设置了
学习
速率来
更新
权重。重量是如何和在哪里
更新
的
? 我看不到
优化
器
、
学习
率
和
反向传播函数之间
的
联系。
浏览 4
提问于2021-09-14
得票数 1
回答已采纳
1
回答
如何
更新
新数据上
的
神经网络参数
、
[还请参阅stats:这里上
的
十字柱。 我有一个很大
的
数据集D_1。我有一个前馈深神经网络N,有隐藏层,我在D_1上训练,
使用
最小均方损耗
和
标准反向传播,并获得了参数。 现在,我知道了网络架构
和
学习
的
参数。接下来,我获得了一批新
的
数据,D_2 --这是一个类似于D_1
的
大型数据集。我想再次
学习
N
的
参数,就好像我
浏览 0
提问于2022-10-12
得票数 0
1
回答
每次重启后降低最大
学习
率
、
、
、
、
我正在训练一个神经网络来完成一个基于计算机视觉
的
任务。对于
优化
器
,我发现在整个训练中
使用
单一
的
学习
率
并不理想,人们所做
的
就是
使用
学习
率
调度
器
以特定
的
方式衰减
学习
率
。,它
的
作用是以余弦方式退火/降低初始
学习
率
(由我们设置),直到它重启。在这个“重启”之后,
学习
浏览 46
提问于2020-06-17
得票数 1
2
回答
adam
优化
器
- Keras中
学习
率
的
默认值
、
、
、
、
我正在研究一个
使用
转移
学习
的
图像分类问题。
使用
的
参数如下: model.compile(optimizer = adamOpti, loss= "categorical_crossentropy, metrics = ["accuracy"]) 在测试
中
,我
使用
了
浏览 0
提问于2019-05-02
得票数 6
回答已采纳
1
回答
如何增加训练Theano保存
的
模型?
、
、
、
、
我有一个由训练
的
模型,并且有新
的
训练数据我想增加模式,我该怎么做呢?
浏览 7
提问于2016-09-20
得票数 0
1
回答
在
使用
keras
的
mnist上
的
测试准确
率
明显高于tensorflow.keras
、
、
、
、
我用一个基本
的
例子验证了我
的
TensorFlow (v2.2.0)、Cuda (10.1)
和
cudnn (libcudnn7-dev_7.6.5.32-1+cuda10.1_amd64.deb),我得到了奇怪
的
结果……我可能忘了什么。要
使用
tensorflow运行,请执行以下操作: from __future_
浏览 3
提问于2020-05-27
得票数 6
1
回答
Keras
优化
器
中
的
衰减参数
、
、
、
我目前正在用Keras训练CNN,我正在
使用
Adam
优化
器
。我
的
计划是在每一个时代之后逐渐降低
学习
率
。我以为衰变参数就是为了这个。对我来说,这些文档并没有清楚地解释它是如何工作
的
:然而,当观察张紧板中
使用
的
学习
率
时,它与初始
学习
率
保持不变。那么,这个衰变参数是如何工作<
浏览 0
提问于2017-12-29
得票数 7
3
回答
如何在N个时期后调整
学习
率
?
、
、
、
我在用Hugginface
的
训练
器
。如何在N个时期后调整
学习
率
?例如,我将初始
学习
率
设置为lr=2e-6,并且我希望在第一个时期之后将
学习
率
更改为lr=1e-6,并在剩余
的
训练中保持该
学习
率
。last_epoch=-1我知道有,但在这里,它每个时代都会降低
学习
率
,但这不是
浏览 5
提问于2021-07-23
得票数 1
1
回答
为什么我在McMahan
的
论文中创建了一个像FedAvg这样
的
非IID数据集,但这个数据集
的
测试精度只有0.5?
、
、
、
这是一些客户
的
情况。 我
使用
这个数据集来训练我
的
TFF模型。训练集
的
准确
率
约为0.99,而测试集
的
准确
率
仅为0.5左右。我试了很多次,但都没反应。我认为可能模型是过拟合
的
,所以我添加了两个dropout进行测试,但我得到了相同
的
结果。然后我将relu()函数更改为leakyrelu(),并将
优化
器
函数从SGD更改为Adam,但准确
率
也约为0.5。我不知道为什么。我知道非IID会导致
浏览 0
提问于2020-04-15
得票数 1
7
回答
我们应该对adam
优化
器
进行
学习
速率衰减吗?
、
我正在用Adam
优化
器
训练一个图像本地化网络,有人建议我
使用
指数衰减。我不想尝试这一点,因为Adam
优化
器
本身会降低
学习
速度。但那家伙坚持,他说他以前做过。所以我应该这么做,你
的
建议有什么理论依据吗?
浏览 8
提问于2016-09-15
得票数 125
回答已采纳
2
回答
Pytorch Adam
优化
器
的
笨拙行为?重启会更好吗?
、
、
、
我正试着用Pytorch训练CNN
的
文本分类
器
。我像这样
使用
Adam
优化
器
。optimizer = torch.optim.Adam(CNN_Text.parameters(), lr=args.lr)所以,我实现了
学习
率
衰减, If curr_loss > val_loss: prev_lr =
浏览 11
提问于2018-12-06
得票数 1
2
回答
Keras
中
Adam
优化
器
的
衰减参数
、
、
我认为Adam
优化
器
的
设计使得它能够自动调整
学习
速度。但是有一个
选项
可以显式地提到Keras
中
Adam参数
选项
中
的
衰变。我想澄清衰变对Keras
中
Adam
优化
器
的
影响。如果我们在lr = 0.001 0.001上用衰减式0.001.0 1编译模型,然后拟合该模型运行50次,那么在每一时期后,
学习
率
会降低0.0 1倍吗?我们是否可
浏览 3
提问于2020-02-02
得票数 6
回答已采纳
1
回答
将Keras模型
的
损失函数乘以某个常数C,并将其
学习
率
除以C
在Keras
中
,如果将模型
的
损失函数乘以某个常数C,并将
学习
率
除以C,那么训练过程中就不会出现差异,这是真的吗?def my_loss(y_true, y_est): 在第一个场景
中
,我
使用
学习
率
等于0.005
的
Adam
优化
器
,并
使用
该损失函数
和
浏览 0
提问于2017-10-18
得票数 1
2
回答
发布从keras到tf.keras
的
移植代码
、
、
、
我正在将一个基本
的
MNIST模型训练程序从
使用
keras2.3.1移植到tf.keras (TensorFlow2.0),并且看到了一些奇怪
的
行为。我
的
初始代码训练得很好,但是在
更新
我
的
导入之后,模型训练就陷入了困境。以下是我
的
代码input_layer = Input(shape=(784,)) network1 = Dense(152, activation=nn.tanhbatch_size=conf.batch_
浏览 3
提问于2019-11-19
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
开源免费的Windows优化工具,让用户能够自定义和优化他们的系统。
谷歌 Android Studio 4.1 正式版发布
C+扩展可用:2020年5月更新
正式支持 JIT LTO,英伟达发布 CUDA 12.0 开发工具集更新
Visual Studio 2019优化新鲜出炉:C++后端更新汇总
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券