博客
关于我
循环神经网络(RNN)的改进——长短期记忆LSTM
阅读量:422 次
发布时间:2019-03-06

本文共 881 字,大约阅读时间需要 2 分钟。

vanilla RNN与LSTM: 探索时间序列建模

一:vanilla RNN

在处理基于时间的序列问题时,vanilla RNN(经典循环神经网络)通过递归公式逐步更新状态信息。其核心公式为:

hₜ = fW(ht-1, xt)

其中,xt为第t个时间步的输入向量,ht为新状态,包含前t个时间步的信息;ht-1为上一个状态。参数W通过反向传播优化。

vanilla RNN的结构简单,但在时间步数较多时容易出现梯度爆炸或消失问题。为解决这一痛点,LSTM和GRU等结构应运而生。

二:LSTM

LSTM通过引入四个门(f、i、g、o)来解决vanilla RNN的梯度问题。每个LSTM单元接受当前输入xt、上一个状态ht-1和细胞状态ct-1,输出新的细胞状态ct和新状态ht。其核心公式为:

ct = fg(ct-1 + ig)

ht = og(ct tan)

LSTM通过门控机制有效抑制梯度问题,且能够长期记住信息。

三:《long short term memory》中的实验

Hochreiter等在论文中设计了多个实验验证LSTM的有效性。以下是部分实验摘要:

  • Reber Grammar实验:验证LSTM学习递归结构的能力。实验使用7个输入单元和7个输出单元,结果显示LSTM能够有效学习复杂的递归关系。

  • Noise-Free与Noisy序列实验:研究LSTM在不同噪声条件下的性能。实验表明LSTM能够在长时间步数下保持较好的预测能力。

  • Long Time Lags实验:测试LSTM在高延迟条件下的性能。结果显示LSTM能够完美通过测试,而传统RNN则不然。

  • 其他实验:包括信息存储、离散表示、乘法问题及时间顺序问题等。实验结果均表明LSTM在复杂任务中的优越性。

  • 局限性

    尽管LSTM解决了梯度问题,但仍存在一些限制,如训练难度大、门控机制的复杂性等。

    参考文献

  • Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory.
  • Stanford CS231n课程内容
  • 转载地址:http://ezbuz.baihongyu.com/

    你可能感兴趣的文章
    Nodejs模块、自定义模块、CommonJs的概念和使用
    查看>>
    nodejs生成多层目录和生成文件的通用方法
    查看>>
    nodejs端口被占用原因及解决方案
    查看>>
    Nodejs简介以及Windows上安装Nodejs
    查看>>
    nodejs系列之express
    查看>>
    nodejs系列之Koa2
    查看>>
    Nodejs连接mysql
    查看>>
    nodejs连接mysql
    查看>>
    NodeJs连接Oracle数据库
    查看>>
    nodejs配置express服务器,运行自动打开浏览器
    查看>>
    Nodemon 深入解析与使用
    查看>>
    node不是内部命令时配置node环境变量
    查看>>
    node中fs模块之文件操作
    查看>>
    Node中同步与异步的方式读取文件
    查看>>
    Node中的Http模块和Url模块的使用
    查看>>
    Node中自启动工具supervisor的使用
    查看>>
    Node入门之创建第一个HelloNode
    查看>>
    node全局对象 文件系统
    查看>>
    Node出错导致运行崩溃的解决方案
    查看>>
    Node响应中文时解决乱码问题
    查看>>