腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在训练/动态
正则
化
过程中改变角点
正则
化
、
、
、
我正在寻找一个适当的方法,以实现一个动态的
正则
化
的一个层,在培训期间。例如,经过10次调用后,我希望将L2
正则
化
替换为L1
正则
化
,只对MyLayer的特定权重进行
正则
化
。以下是该层实现的示例: def __init__(...)some code self.regula
浏览 3
提问于2020-12-29
得票数 0
回答已采纳
1
回答
卷积层中的
正则
化
(conv2D)
、
、
我在一个项目中使用
Keras
。我想知道在卷积层中添加任何类型的
正则
化
组件(如内核、偏差或活动
正则
化
)是否有任何意义,即
Keras
中的Conv2D。如果是,那么哪种
正则
化
对conv2d层最有用偏向正如所解释的这里,
正则
化
技术是有用的完全连接(密集)层。conv2D有这样的直觉/逻辑吗?
浏览 0
提问于2018-11-19
得票数 6
回答已采纳
1
回答
用MLPClassifier
正则
化
将sklearn移植到
Keras
、
我想将以下滑雪板模型移植到
keras
:到目前为止,我得到的是:from
keras
.layers import Dense alpha :浮动,可选,默认0.0001 L2惩罚(
正则</
浏览 0
提问于2019-07-28
得票数 2
回答已采纳
1
回答
tensorflow图
正则
化
(NSL)对三重半硬损失(TFA)的影响
、
、
、
、
如本文所述,我想用nsl.
keras
.GraphRegularization训练二元目标深度神经网络模型。我的模型在中间稠密层中有一个,不应该是“图
正则
化
”。来自吉顿的nsl.
keras
.GraphRegularization : 图
正则
化
是在逻辑层上进行的,只有在训练过程中才能进行。这意味着中间三重态半硬损失不会受到这种
正则
化
的影响。
浏览 8
提问于2019-12-04
得票数 0
回答已采纳
1
回答
运动训练中
正则
化
因素的变化
、
、
、
例如,使用tf.
keras
.optimizers.schedules可以很容易地改变学习速度optimizer = tf.
keras
.optimizers.SGD(learning_rate=lr_schedule)r_schedule = tf.
keras
.optimizers.schedule
浏览 1
提问于2022-04-26
得票数 1
回答已采纳
1
回答
LSTM的最佳激活和
正则
化
方法是什么?
、
、
、
在
Keras
中有:
keras
.regularizers.l1(0.)
keras
.regularizers.l1_l2(l1=0.01, l2=0.01)
keras<
浏览 0
提问于2019-04-11
得票数 1
3
回答
Keras
中的全局权重衰减
、
、
、
有没有办法在
Keras
中设置全局权重衰减? 我知道使用
正则
化
器()的层明智的方法,但我找不到任何关于设置全局权重衰减的方法的信息。
浏览 0
提问于2016-12-21
得票数 15
回答已采纳
1
回答
ModuleNotFoundError:没有名为“tf”的模块,但已安装TensorFlow v2.3
、
我正在尝试导入一些
正则
化
程序,代码如下: import tensorflow as tfimport numpy as np from tf.
keras
.regularizers import l2, activity_l2 问题是我得到了以下错误: ------------------------last) ~\AppData\Local\Temp/ipykernel_8996/2415362
浏览 49
提问于2021-09-29
得票数 0
1
回答
基于tensorflow的L1活性
正则
化
和L12活性
正则
化
、
、
如何使用tensorflow (没有
keras
)实现L1活动
正则
化
和L12活动
正则
化
?
浏览 2
提问于2020-03-04
得票数 1
4
回答
L1
正则
化
在
Keras
/Tensorflow *真的*L1-
正则
化
吗?
、
、
、
、
利用L1
正则
化
方法对
Keras
中的神经网络参数进行
keras
.regularizers.l1(0.01)
正则
化
,得到稀疏模型。我发现,虽然我的许多系数接近于零,但它们中的一些实际上是零。通过查看,它建议
Keras
简单地将参数的L1范数添加到损失函数中。编辑:也是
浏览 8
提问于2017-03-31
得票数 13
1
回答
在
Keras
中,weight_regularizer和activity_
正则
化
器有什么区别?
、
我知道
正则
化
通常会增加k*w^2来惩罚大重量的损失。但是在
Keras
中有两个
正则
化
参数- weight_regularizer和activity_
正则
化
。有什么关系?
浏览 3
提问于2016-12-22
得票数 4
回答已采纳
1
回答
用ANNs规范实践
、
、
、
我从一些例子中了解到在ANNs (具体地说,在
Keras
实现)中存在
正则
化
选项。据我所知,
正则
化
一般是对参数的一种“惩罚”,以防止模型的复杂性和过度拟合。因此,
Keras
中的W_regularizer和b_regularizer选项是用于权重和偏差参数
正则
化
的,除非我弄错了。但activity_regularizer是干什么用的呢?它与重量/偏差
正则
化
有什么关系?更广泛地说:使用所有这些
正则</em
浏览 0
提问于2016-11-17
得票数 7
1
回答
L1- tensorflow神经网络中所有权重(非权值和偏差)的
正则
化
、
、
对于L1-
正则
化
,我使用tf.contrib.layers.l1_regularizer。我不知道怎样才能把
正则
化
器应用到重量上。tf.contrib.layers.apply_regularization(l1_regularizer, model.trainable_weights)也将
正则
化
应用于偏置,因为model.trainable_weightstf.train.GradientDescentOptimizer(learning_rate=0.5) global_step
浏览 0
提问于2018-10-19
得票数 0
回答已采纳
2
回答
如何在对imagenet提取的模型进行微调时应用
正则
化
、
是否可以使用Tensorflow.
Keras
将
正则
化
应用于模型层,而不是添加的层。我不认为将
正则
化
仅添加到一层会对结果产生太大影响。我知道我们可以对添加的层应用
正则
化
,如下所示: x = Dense(classes, kernel_regularizer=l2(reg), name="labels")(x) 但是在
Keras
中也可以对其他层应用
正则
化
吗
浏览 45
提问于2020-07-22
得票数 1
回答已采纳
2
回答
如何将可训练参数转化为Tensoflow.
Keras
中的损失函数
、
、
、
、
这些损失不会作为模型拓扑的一部分进行跟踪,因为它们不能序列
化
。inputs = tf.
keras
.Input(shape=(10,))outputs = tf.
keras
.layers.Dense(1)(x)# Weight regularization. model.add_loss(lambda: tf.reduce_mean(x.kernel
浏览 6
提问于2020-06-19
得票数 2
回答已采纳
2
回答
TensorFlow中的活动
正则
化
、
、
在
Keras
中,对于密集层,我们可以使用参数activity_regularizer。在Tensorflow中,没有类似的参数。喀拉斯:encoding_dim = 32# add a Dense layer
浏览 0
提问于2018-04-30
得票数 4
回答已采纳
1
回答
为什么model.losses会返回
正则
化
损失?
、
、
、
、
总损失由两部分组成: 1)
正则
化
损失;2)预测损失。我的问题是为什么model.losses是
正则
化
的损失?model这里是tf.
keras
.Model的一个实例。当访问该属性时,会创建变量
正则
化
张量,因此它非常安全:在tf.GradientTape下访问损失会将梯度传播回相应的变量。 为什么我们可以通过访问losses属性得到
正则
化
的损失?如果losses属性返回
正则
化
丢失,为什么将其命名为
浏览 1
提问于2019-06-20
得票数 9
2
回答
寻找
正则
化
损失分量
、
当
Keras
输出验证损失时,打印出总损失值(
正则
化
损失+拟合损失)。 我怎么才能把这两样分开呢?我特别希望获得
正则
化
损失的价值。
浏览 0
提问于2020-06-12
得票数 2
1
回答
Keras
Dropout层模型预测
、
、
、
、
如果我的
Keras
顺序模型中有一个退出层,那么在执行model.predict()之前,我需要做些什么来删除或关闭它吗?
浏览 0
提问于2018-12-23
得票数 4
1
回答
基于tf.gather的角点自定义
正则
化
、
、
、
、
我试图在
keras
中实现一个自定义
正则
化
程序。其思想是
正则
化
的范围仅限于数据集中的两列。__version__ == 2.0.0 model = tf.
keras
.models.Model(inputs = inputs, outputs = dense) model.compile(loss
浏览 1
提问于2020-10-06
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
简化正则化:L₂正则化
正则化的意义
动手深度学习:正则化
机器学习系列之——正则化
正则化和欠约束问题
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券