博客
关于我
循环神经网络(RNN)的改进——长短期记忆LSTM
阅读量:422 次
发布时间:2019-03-06

本文共 881 字,大约阅读时间需要 2 分钟。

vanilla RNN与LSTM: 探索时间序列建模

一:vanilla RNN

在处理基于时间的序列问题时,vanilla RNN(经典循环神经网络)通过递归公式逐步更新状态信息。其核心公式为:

hₜ = fW(ht-1, xt)

其中,xt为第t个时间步的输入向量,ht为新状态,包含前t个时间步的信息;ht-1为上一个状态。参数W通过反向传播优化。

vanilla RNN的结构简单,但在时间步数较多时容易出现梯度爆炸或消失问题。为解决这一痛点,LSTM和GRU等结构应运而生。

二:LSTM

LSTM通过引入四个门(f、i、g、o)来解决vanilla RNN的梯度问题。每个LSTM单元接受当前输入xt、上一个状态ht-1和细胞状态ct-1,输出新的细胞状态ct和新状态ht。其核心公式为:

ct = fg(ct-1 + ig)

ht = og(ct tan)

LSTM通过门控机制有效抑制梯度问题,且能够长期记住信息。

三:《long short term memory》中的实验

Hochreiter等在论文中设计了多个实验验证LSTM的有效性。以下是部分实验摘要:

  • Reber Grammar实验:验证LSTM学习递归结构的能力。实验使用7个输入单元和7个输出单元,结果显示LSTM能够有效学习复杂的递归关系。

  • Noise-Free与Noisy序列实验:研究LSTM在不同噪声条件下的性能。实验表明LSTM能够在长时间步数下保持较好的预测能力。

  • Long Time Lags实验:测试LSTM在高延迟条件下的性能。结果显示LSTM能够完美通过测试,而传统RNN则不然。

  • 其他实验:包括信息存储、离散表示、乘法问题及时间顺序问题等。实验结果均表明LSTM在复杂任务中的优越性。

  • 局限性

    尽管LSTM解决了梯度问题,但仍存在一些限制,如训练难度大、门控机制的复杂性等。

    参考文献

  • Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory.
  • Stanford CS231n课程内容
  • 转载地址:http://ezbuz.baihongyu.com/

    你可能感兴趣的文章
    Nginx + uWSGI + Flask + Vhost
    查看>>
    Nginx - Header详解
    查看>>
    Nginx Location配置总结
    查看>>
    Nginx Lua install
    查看>>
    Nginx upstream性能优化
    查看>>
    Nginx 中解决跨域问题
    查看>>
    Nginx 动静分离与负载均衡的实现
    查看>>
    Nginx 反向代理 MinIO 及 ruoyi-vue-pro 配置 MinIO 详解
    查看>>
    nginx 反向代理 转发请求时,有时好有时没反应,产生原因及解决
    查看>>
    Nginx 反向代理解决跨域问题
    查看>>
    Nginx 反向代理配置去除前缀
    查看>>
    nginx 后端获取真实ip
    查看>>
    Nginx 学习总结(16)—— 动静分离、压缩、缓存、黑白名单、性能等内容温习
    查看>>
    Nginx 学习总结(17)—— 8 个免费开源 Nginx 管理系统,轻松管理 Nginx 站点配置
    查看>>
    Nginx 常用配置清单
    查看>>
    nginx 常用配置记录
    查看>>
    Nginx 我们必须知道的那些事
    查看>>
    Nginx 的 proxy_pass 使用简介
    查看>>
    Nginx 的配置文件中的 keepalive 介绍
    查看>>
    Nginx 负载均衡与权重配置解析
    查看>>