首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >神经网络中的训练偏差是独立输入的加权和

神经网络中的训练偏差是独立输入的加权和
EN

Stack Overflow用户
提问于 2020-08-18 00:30:09
回答 1查看 37关注 0票数 1

我目前正在尝试在本文中实现第217页的最小-最大相关性模型:https://reader.elsevier.com/reader/sd/pii/S0031320316303582?token=3C705E0F2F8518D919BAA293EC6ABA570F1CCB83ACB67C60419737F55BDFEC9013FA2FCF3ACC4CE1887E5387315E70E8

问题是,我需要训练一个偏差,它被添加到一个层,它本身是权重*输入+偏差的总和。应该训练后一种权重。

因此,我有一个具有一个隐藏层的神经网络。隐藏层的偏差就像线性回归一样,只是输入层和输出层。偏置有自己的输入值。我想我必须使用函数式api,但是我如何在隐藏层中添加LR输出作为偏置项?

EN

回答 1

Stack Overflow用户

发布于 2020-08-18 17:37:46

明白了,只需将用于偏置的a层与用于神经元的层进行堆叠/连接,然后将它们与不可训练的层相加。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63454947

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档