Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >学了又忘又学的 LSTM RNN(二)

学了又忘又学的 LSTM RNN(二)

作者头像
木野归郎
发布于 2022-02-25 02:13:59
发布于 2022-02-25 02:13:59
3060
举报
文章被收录于专栏:share ai happinessshare ai happiness

大家好,我是小轩

在上一篇文章学了又忘又学的RNN(一)中回顾了什么是RNN,以及RNN和普通神经网络有什么不一样

RNN解决了普通神经网络不能够将多个输入数据进行关联的问题,也就是解决了训练序列化数据时候遇到的问题

序列化数据在生活中非常常见,比如一段语音、一段文字等等

上一篇文章中也说了RNN为什么具有记忆功能

由RNN结构可知,看下面这幅图,RNN在每个时间都会将前一步计算好的值传递给当前步

但是RNN也存在一些问题

一般形式的RNN面对过于长的文字,会出现“遗忘”的情况,就是没有回忆起很早之前的记忆

比如:"我今天要学习机器学习,我先看第七章内容贝叶斯分类器,然后看第八章内容集成学习......最后看第十三章半监督学习..."

RNN最后预测的结果有可能不是“机器学习”,所以RNN就要开始学习这段长序列和“机器学习”之间的关系,但“机器学习”这个关键字却出现在句子开头

为了知道RNN为什么会出现这种情况,所以现在看看RNN是怎样学习的

上面那段文字中机器学习这个信息源记忆需要通过层层计算,才能到达最后

在反向传播时候,在每一层都会乘一个参数

这时候就会出现两种情况

w*大于1时候,梯度爆炸,反向传播时候不断乘w*参数,误差传到初始位置时候就会是一个无穷大的数

w*小于1时候,梯度下降,反向传播时候不断乘w*参数,误差传到初始位置时候也会是一个接近为0的数,所以对于初始时刻误差就相当于消失了

说了半天终于说到这篇文章的主角了——LSTM RNN

比普通RNN多了三个控制器:输入控制、输出控制、忘记控制

LSTM RNN的核心思想,就是有一个控制全局的记忆

比如上面这张图中,颜色较深的那条箭头(贯穿LSTM整个过程),我们把这个称为主线部分

我们把上面这张图的下面输入、忘记、输出称为分线部分

如果此时输入部分对整个计算比较重要,输入就会通过输入控制按重要程度加入到主线部分再进行计算分析

如果此时改变了对之前预测分析的结果,忘记控制就会将之前某些主线部分忘记,就是按比例重新计算

所以主线部分的计算主要取决于输入和忘记这两个控制

输出部分会基于主线部分和分线部分判断要输出什么结果

我们现在来看一下网上的LSTM RNN这幅图就不难理解了,这里只截取了其中的一层

图中标注了1、2、3,分别表示上文介绍的输入、遗忘、输出控制

END

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-11-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 OnlyCoding 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【深度学习】深入理解LSTM
原始结构的RNN还不够处理较为复杂的序列建模问题,它存在较为严重的梯度消失问题,最直观的现象就是随着网络层数增加,网络会逐渐变得无法训练。长短期记忆网络(Long Short Time Memory,LSTM)正是为了解决梯度消失问题而设计的一种特殊的RNN结构。
黄博的机器学习圈子
2020/09/29
1.2K0
【深度学习】深入理解LSTM
长文 | LSTM和循环神经网络基础教程(PDF下载)
目录: 前言 前馈网络回顾 循环网络 时间反向传播BPTT 梯度消失与梯度爆炸 长短期记忆单元(LSTM) 多时间尺度和远距离依赖 门控循环单元GRU LSTM超参数调试 文章较长,下载PDF阅读更爽 1. 点击阅读原文 2. 回复:20180301 前言 本文旨在帮助神经网络学习者了解循环网络的运作方式,以及即LSTM的功能和结构。 循环网络是一类人工神经网络,用于识别诸如文本、基因组、手写字迹、语音等序列数据的模式,或用于识别传感器、股票市场、政府机构产生的数值型时间序列数据。循环网络可以说是最强大的神
昱良
2018/04/09
1.7K0
长文 | LSTM和循环神经网络基础教程(PDF下载)
详解 LSTM
今天的内容有: LSTM 思路 LSTM 的前向计算 LSTM 的反向传播 关于调参 ---- LSTM 长短时记忆网络(Long Short Term Memory Network, LSTM),是
杨熹
2018/04/03
1.7K0
详解 LSTM
Python人工智能 | 十二.循环神经网络RNN和LSTM原理详解及TensorFlow分类案例
前一篇讲解了TensorFlow如何保存变量和神经网络参数,通过Saver保存神经网络,再通过Restore调用训练好的神经网络。本文将详细讲解循环神经网络RNN和长短期记忆网络LSTM的原理知识,并采用TensorFlow实现手写数字识别的RNN分类案例。
Eastmount
2022/01/20
1.2K0
Python人工智能 | 十二.循环神经网络RNN和LSTM原理详解及TensorFlow分类案例
【综述专栏】循环神经网络RNN(含LSTM,GRU)小综述
在科学研究中,从方法论上来讲,都应“先见森林,再见树木”。当前,人工智能学术研究方兴未艾,技术迅猛发展,可谓万木争荣,日新月异。对于AI从业者来说,在广袤的知识森林中,系统梳理脉络,才能更好地把握趋势。为此,我们精选国内外优秀的综述文章,开辟“综述专栏”,敬请关注。
马上科普尚尚
2021/01/13
5.2K0
【综述专栏】循环神经网络RNN(含LSTM,GRU)小综述
深度学习——RNN(1)RNN基础LSTM
前言:为什么有BP神经网络、CNN,还需要RNN? BP神经网络和CNN的输入输出都是互相独立的,也就是说它模拟了神经元之间的信息传递过程,但是作为人,我们依旧会记得小时候的很多事情,这就需要RNN了
DC童生
2018/06/04
1K0
一份详细的LSTM和GRU图解
在这篇文章中,我们将从LSTM和GRU背后的直觉开始。然后我(Michael)将解释使LSTM和GRU表现良好的内部机制。如果你想了解这两个网络背后的机制,那么这篇文章就是为你准备的。
AiTechYun
2018/10/25
3.8K0
一份详细的LSTM和GRU图解
【深度学习研究系列】漫谈RNN之长短期记忆模型LSTM
推送第三日,量化投资与机器学习公众号将为大家带来一个系列的 Deep Learning 原创研究。本次深度学习系列的撰稿人为 张泽旺 ,DM-Master,目前在研究自动语音识别系统。希望大家有所收获
量化投资与机器学习微信公众号
2018/01/29
1.3K0
【深度学习研究系列】漫谈RNN之长短期记忆模型LSTM
精选 25 个 RNN 问题
循环神经网络是一类人工神经网络,其中节点之间的连接可以创建一个循环,允许某些节点的输出影响对相同节点的后续输入。涉及序列的任务,如自然语言处理、语音识别和时间序列分析,非常适合 RNN。与其他神经网络不同,RNN 具有内部存储器,允许它们保留来自先前输入的信息,并根据整个序列的上下文做出预测或决策。
用户9861443
2023/12/19
2520
精选 25 个 RNN 问题
深度学习算法 | LSTM算法原理简介及Tutorial
1、背景 LSTM(Long Short-Term Memory)算法作为深度学习方法的一种,在介绍LSTM算法之前,有必要介绍一下深度学习(Deep Learning)的一些基本背景。 目前在机器学习领域,最大的热点毫无疑问是深度学习,从谷歌大脑(Google Brain)的猫脸识别,到ImageNet比赛中深度卷积神经网络的获胜,再到Alphago大胜李世石,深度学习受到媒体、学者以及相关研究人员越来越多的热捧。这背后的原因无非是深度学习方法的效果确实超越了传统机器学习方法许多。 从2012年Geoff
用户1332428
2018/03/09
7K0
深度学习算法 | LSTM算法原理简介及Tutorial
cnn\rnn\LSTM\\自编码\gan
最近看了莫烦Python的《了解机器学习部分》,虽然讲的内容是基础的,但是,自己总结一下才知道自己是不是记住啦,我总结的可能有错误或者不合适的地方,希望大家及时批评指正啦。https://morvanzhou.github.io/tutorials/machine-learning
bye
2020/10/29
5420
什么是LSTM
哈喽,大家好,上一次我们了解了什么是卷积神经网络RNN,然后我又加上了我翻译的那一篇文章来简述了一下RNN和LSTM,今天,让我们来详细的了解下什么是LSTM。 首先提到RNN呢,我们自然会想到RNN所带来的弊端,因此人们为了解决这个弊端,因此人们引入了我们今天所要了解的对象LSTM。 LSTM是long short term memory的一种简称,中文名字呢又叫做长短期记忆,这是现在最流行的RNN的计算方式的其中的一种,在上一篇文章中,我介绍过RNN是在有序的数据中进行学习的,为了记住这些数据,RNN
云时之间
2018/04/11
1.1K0
什么是LSTM
Python人工智能 | 十四.循环神经网络LSTM回归案例之sin曲线预测
前一篇文章详细讲解了如何评价神经网络,绘制训练过程中的loss曲线,并结合图像分类案例讲解精确率、召回率和F值的计算过程。本篇文章将分享循环神经网络LSTM RNN如何实现回归预测,通过sin曲线拟合实现如下图所示效果。本文代码量比较长,但大家还是可以学习下的。基础性文章,希望对您有所帮助!
Eastmount
2022/03/30
1.2K0
Python人工智能 | 十四.循环神经网络LSTM回归案例之sin曲线预测
LSTM模型与前向反向传播算法
    在循环神经网络(RNN)模型与前向反向传播算法中,我们总结了对RNN模型做了总结。由于RNN也有梯度消失的问题,因此很难处理长序列的数据,大牛们对RNN做了改进,得到了RNN的特例LSTM(Long Short-Term Memory),它可以避免常规RNN的梯度消失,因此在工业界得到了广泛的应用。下面我们就对LSTM模型做一个总结。
刘建平Pinard
2018/08/14
5240
LSTM模型与前向反向传播算法
LSTM和GRU的解析从未如此通俗易懂
▌短时记忆 RNN 会受到短时记忆的影响。如果一条序列足够长,那它们将很难将信息从较早的时间步传送到后面的时间步。 因此,如果你正在尝试处理一段文本进行预测,RNN 可能从一开始就会遗漏重要信息。 在反向传播期间,RNN 会面临梯度消失的问题。 梯度是用于更新神经网络的权重值,消失的梯度问题是当梯度随着时间的推移传播时梯度下降,如果梯度值变得非常小,就不会继续学习。
机器学习AI算法工程
2019/10/28
2.1K0
【AI 进阶笔记】LSTM 理解
在神经网络的世界里,RNN(循环神经网络)曾经是处理时序数据的大哥大。但有个致命问题——它记不住事儿!
繁依Fanyi
2025/04/10
4110
循环神经网络(RNN)和LSTM初学者指南 | 入门资料
最近,有一篇入门文章引发了不少关注。文章中详细介绍了循环神经网络(RNN),及其变体长短期记忆(LSTM)背后的原理。
量子位
2019/04/24
6700
循环神经网络(RNN)和LSTM初学者指南 | 入门资料
CS231n第九节:循环神经网络RNN
本章我们将介绍 循环神经网络 Recurrent Neural Networks (RNNs),RNN的一大优点是为网络结构的搭建提供了很大的灵活性。通常情况下,我们提及的神经网络一般有一个固定的输入,然后经过一些隐藏层的处理,得到一个固定大小的输出向量(如下图左所示,其中红色表示输入,绿色表示隐藏层,蓝色表示输出,下同)。这种“原始”的神经网络接受一个输入,并产生一个输出,但是有些任务需要产生多个输出,即一对多的模型(如下图 one-to-many标签所示)。循环神经网络使得我们可以输入一个序列,或者输出一个序列,或者同时输入和输出一个序列。下面按照输入输出是否为一个序列对RNN进行划分,并给出每种模型的一个应用场景:
Here_SDUT
2022/08/08
7170
CS231n第九节:循环神经网络RNN
【模型解读】浅析RNN到LSTM
我们通常所说的RNN实际上有两种,一种是Recurrent Neural Networks,即循环神经网络,一种是Recursive Neural Networks,即递归神经网络。
用户1508658
2019/07/26
7900
【模型解读】浅析RNN到LSTM
LSTM & GRU的基本原理与区别
RNN在构建实际应用程序如语言翻译、文本分类和更多的序列化问题方面常见,but在处理大型序列时存在梯度消失和梯度爆炸等问题。
Cyril-KI
2022/09/16
7250
LSTM & GRU的基本原理与区别
相关推荐
【深度学习】深入理解LSTM
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档