Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >CNN中多层膜的激活功能

CNN中多层膜的激活功能
EN

Data Science用户
提问于 2019-02-18 06:58:12
回答 2查看 629关注 0票数 2

在最终完全连接的层上需要激活函数(例如sigmoid)。但是为什么在卷积层上也要应用激活函数呢?据我所知,激活函数只需要在最后一层上应用一次。

EN

回答 2

Data Science用户

发布于 2019-02-18 15:54:04

不仅对于卷积神经网络(CNNs),对于DNNs (深度神经网络)和RNNs (递归神经网络),我们在每一层都使用激活函数。Sigmoid (用于二进制分类)、softmax (用于多类分类)或其他类型通常用于最终输出层,每个特定于与预测相比较的标签类型。

然而,其他神经元也需要激活函数,特别是为了非线性目的;最流行的神经元是ReLU (精馏线性单元)、Leaky、tanh、。诸若此类。我们几乎总是对深度学习中的每一个神经元使用激活函数。要获得详细的见解,请看一看:

https://www.youtube.com/watch?v=Xvg00QnyaIY

还特别适用于卷积网:

https://www.youtube.com/watch?v=jPOAS7uCODQ&list=PLkDaE6sCZn6Gl29AoE31iwdVwSG-KnDzF&index=7

希望我能帮上忙,请不要犹豫多问。祝好运!

票数 1
EN

Data Science用户

发布于 2019-02-18 18:52:35

网络的训练类似于将函数拟合到一些标量数据。如果数据是线性的,那么拟合一个线性函数是合适的,并且会很好地工作。

在深度学习的情况下,数据丰富且非线性,因此我们应用非线性激活函数使模型更加复杂。

我们在中间层使用激活函数的另一个原因是,出于优化的原因,将权重和输出值保持在接近0和“有点”的高斯。

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/45762

复制
相关文章

相似问题

添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文