腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Tensorflow TensorBoard不显示acc、acc_val和loss_val,只显示epoch_accuracy和epoch_loss
、
、
、
、
这就是我所看到
的
。我想要
的
是: 我遵循
的
指示,以便能够在google笔记本中使用拉伸板。这是用于生成张量板
的
代码: tensorboard = TensorBoard(log_dir非常感谢您
的
帮助!
浏览 1
提问于2020-01-04
得票数 0
1
回答
tf.
Keras
学习进度计划-传递给优化器还是回调?
、
、
、
、
我只想为我
的
第一次CNN设定一个学习时间表,我发现有很多种方法可以做到这一点: 使用
的
tf.
keras
.optimizers.schedules.LearningRateSchedule
浏览 4
提问于2021-05-28
得票数 4
回答已采纳
2
回答
如何向
keras
中
的
tensorboard提供学习率值
、
、
、
我正在使用
keras
,并希望通过
keras
.callbacks.
LearningRateScheduler
实现
自定义
学习率目前我有: lrate =
LearningRateScheduler
(lambda epoch: initial_lr * 0.95 **
浏览 0
提问于2017-09-19
得票数 8
2
回答
基于迭代
的
变学习率
、
、
、
、
我试图在
Keras
中
为SGD编写一个
自定义
的
学习速率调度程序,它可以根据迭代来改变学习速度。然而,
LearningRateScheduler
CallBack只接受一个只需要划时代
的
函数。我
的
学习速率函数如下: iteration)^(-power) 学习率= base_learning_rate x (1 +γx)
浏览 3
提问于2021-06-12
得票数 0
2
回答
在
keras
和SGD优化器中使用
learningratescheduler
调度程序时出现错误
、
、
、
、
我正在使用
Keras
。当我运行我
的
代码时,我得到了这个错误。return ops.EagerTensor(value, ctx.device_name, dtype) ValueError: Attempt to convert a value (<
keras
.callbacks.callbacks.
LearningRateScheduler
object at 0x000001E7C7B8E780>) with an unsupported type (<class '
keras</e
浏览 3
提问于2020-03-11
得票数 0
1
回答
Keras
中
的
自定义
LearningRateScheduler
、
、
、
我正在实现一个基于前一个时期
的
准确率
的
衰减学习率。val_loss'].append(logs.get('val_loss'))def changeLearningR
浏览 35
提问于2020-11-06
得票数 0
回答已采纳
2
回答
如何在
Keras
或Theano
中
实现具有指数衰减学习率
的
卷积神经网络
、
、
、
、
我想在
Keras
或Theano
中
实现具有指数衰减学习率
的
卷积神经网络(CNN)。et0*exp(LossFunction)我知道
Keras
允许设置SGD优化器:衰减项只允许每个时期
的
固定衰减学习率衰减。如何使用相对于成本函数呈指数衰减
的
学习率来设置或编码SGD?为
浏览 2
提问于2016-10-27
得票数 4
1
回答
保存和加载权重和优化状态以进行再培训
、
、
、
我想保存模型,并将其加载到优化器状态以进行再培训。我能够将模型权重保存为一个.h5文件,但是在优化器状态方面没有任何进展。请帮帮我
浏览 0
提问于2021-03-08
得票数 0
回答已采纳
2
回答
Keras
中
Adam优化器
的
衰减参数
、
、
我认为Adam优化器
的
设计使得它能够自动调整学习速度。但是有一个选项可以显式地提到
Keras
中
Adam参数选项
中
的
衰变。我想澄清衰变对
Keras
中
Adam优化器
的
影响。在pytorch中有一个不同
的
实现称为AdamW,它不存在于标准
的
keras
库
中
。这和上面提到
的
每个时代之后
的
衰变是一样
的
吗? 谢谢你
的
答复。
浏览 3
提问于2020-02-02
得票数 6
回答已采纳
1
回答
基于历元
的
多输出损耗权
的
变化
、
、
、
是否可以根据时代改变TF2模型不同输出
的
权重?现在,我正在使用以下代码片段来定义不同输出
的
优先级: loss=['mean_squared_error这样做最好
的
方法是什么?
浏览 6
提问于2020-02-09
得票数 1
回答已采纳
3
回答
在
Keras
中
设置
LearningRateScheduler
、
、
我在
Keras
中
设置了一个学习率调度器,使用历史损失作为self.model.optimizer.lr
的
更新器,但是self.model.optimizer.lr上
的
值没有插入到SGD优化器
中
,优化器使用
的
是代码是:from
keras
.layers import Dense, Dropout, Activation from
keras
.optimizersi
浏览 1
提问于2016-09-30
得票数 15
回答已采纳
1
回答
ValueError: Tensor("ExponentialDecay_4:0",shape=(),dtype=float32)
、
、
、
、
用于查找语言类型
的
分类器,印地语或英语。
浏览 34
提问于2020-01-22
得票数 1
2
回答
Keras
回调:学习率、计划率和高原学习率
的
降低
、
、
我试图在
Keras
中
同时使用
LearningRateScheduler
和ReduceLROnPlateau回调,这会给学习速度带来问题吗?如果是这样的话,该模型使用
的
学习率是多少?我在尝试时遇到了这个问题,这影响了我
的
模型
的
准确性。就像在这里 在我
的
acc: 0.8778 -> 0.8188
的
情况下。 你认为那个时候
的
学习率是多少?
浏览 3
提问于2018-12-03
得票数 1
回答已采纳
2
回答
ImportError:无法从部分初始化模块“
keras
”导入名称“__version__”(很可能是因为循环导入)
、
、
我已经为我
的
机器学习项目导入了以下库,但是当我试图在命令提示符下运行我
的
模型时.出现了问题 from tensorflow.python.
keras
.callbacks importModelCheckpoint, <
浏览 19
提问于2021-07-06
得票数 2
2
回答
在
Keras
中
,为什么SGD
中
的
属性衰减被认为仅仅是为了向后兼容性而保留?
,为了向后兼容性包括衰减,以允许学习速率
的
时间逆衰减。lr是为了向后兼容性而包含
的
,建议使用learning_rate。为什么
Keras
只考虑“为了向后兼容性”而“衰变”。
浏览 3
提问于2020-05-31
得票数 0
回答已采纳
1
回答
Keras
LearningRateScheduler
批量回调,而不是纪元回调
、
、
、
、
我使用
的
是Tensorflow 2.x,下面是我编写
的
自定义
学习率调度器 if epoch == 1: else:return 3e-5 * (1/(1 + 0.01 * epoch ))callback = tf.
keras
.callbacks.
LearningRateScheduler
(scheduler我在以下文档
中
找不到任何有关批处理
的
内容 可以批量调用
浏览 8
提问于2020-03-01
得票数 1
1
回答
Keras
的
ImageDataGenerator是否随机地将转换应用于每个图像?
、
、
、
、
我正在训练一个使用
Keras
ImageDataGenerator课程
的
CNN。我
的
代码看起来像是:from
keras
.callbacks import EarlyStoppingxval, yval), \ callbacks = [<e
浏览 2
提问于2020-09-09
得票数 2
回答已采纳
1
回答
从<tensorflow.python.
keras
.optimizer_v2.learning_rate_schedule.CosineDecay>对象获取学习率
、
、
、
、
如何在每个on_train_batch_begin处更新学习率
的
值 lr_decayed_fn = tf.
keras
.experimental.CosineDecay(initial_lr, decay_steps) lr = K.get_value(self.
浏览 103
提问于2021-04-09
得票数 0
1
回答
如何使用我正在使用
的
SGD优化器根据上一个时代
的
精确性来改变学习速度?
、
下面是我要实现
的
代码 init_lr=0.1 #after every third epoch I am changing the learning
浏览 1
提问于2020-05-24
得票数 3
回答已采纳
2
回答
其中哪一个是余弦衰减(神经网络
的
学习速率重加权)
的
正确实现?
、
、
、
、
我读过一篇关于热重启(SGDR)
的
随机梯度下降(SGDR)
的
论文,并且至少为
keras
()找到了一种实现。但是,我可以想象出两种不同
的
实现,并且希望在一些人
的
支持下跳出来。作为编码
的
,学习率随每一小批处理而降低.但是,我可以想象一个不同
的
实现,它只在每个时代之后才会发生变化。我自己
的
直觉说,后一种实现更有意义,但似乎大多数人都在对前者进行编码。 有什么想法?
浏览 1
提问于2018-08-01
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python中Keras深度学习库的回归教程
用Keras中的权值约束缓解过拟合
PHP中的自定义函数
python中自定义序列的实现
基于keras的文本分类实践基于keras的文本分类实践
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券