长短时记忆(LSTM)

长时间短时记忆网络是一种循环神经网络(RNN).lstm主要用于学习、处理和序列数据进行分类因为这些网络可以学习数据时间步长的长期依赖性。常见的LSTM应用包括情感分析、语言建模、语音识别和视频分析。

LSTM应用和示例

下面的示例使用MATLAB®而且深度学习工具箱™在特定的应用中应用LSTM。初学者可以通过以下简单的示例开始使用LSTM网络:利用LSTMs进行时间序列预测

雷达目标分类

在MATLAB中使用长短期记忆(LSTM)递归神经网络对雷达回波进行分类

关键字识别

当用户使用预定义的关键字时唤醒系统

文本生成

训练深度学习LSTM网络,逐字生成文本

心电信号分类

ECG信号记录了一段时间内心脏的电活动,将其分类为正常或AFib

配水系统调度

利用强化学习(RL)为配水系统生成最优泵调度策略

视频分类

将预先训练好的图像分类模型与LSTM网络相结合,对视频进行分类

RNN和LSTM的技术特点

LSTM网络是RNN体系结构的一种特殊形式。两者之间的差异

复发性神经网络。

复发性神经网络。

本节将重点介绍lstm的架构和优点。

循环神经网络的基本结构。

在实践中,简单的rnn学习长期依赖关系的能力是有限的。rnn通常通过反向传播来训练,在反向传播中,它们可能会遇到“消失”或“爆炸”的梯度问题。这些问题导致网络权重变得非常小或非常大,限制了需要网络学习长期关系的应用程序的有效性。

为了克服这个问题,LSTM网络使用额外的门来控制隐藏单元中的哪些信息被导出为输出和下一个隐藏状态。附加的门允许网络更有效地学习数据中的长期关系。LSTM网络对时间间隔的敏感度较低,这使得它比简单的rnn更适合分析顺序数据。

除了传统rnn中的隐藏状态外,LSTM块的体系结构通常还有一个存储单元、输入门、输出门和忘记门,如下所示。

长短时记忆块

与RNN相比,LSTM (long - short-term memory, long - short-term memory, LSTM)结构有更多的门来控制信息流。

输入门的权重和偏差控制新值流入单元的程度。类似地,遗忘门和输出门的权重和偏差分别控制了一个值在单元格中保留的程度,以及该值在单元格中用于计算LSTM块的输出激活的程度。

关于LSTM网络的更多信息,请参见深度学习工具箱™

参见:深度学习的MATLAB机器学习数据科学的MATLABGPU计算人工智能

观看本系列MATLAB技术讲座,探索关键的深度学习概念。学会识别何时使用深度学习,发现什么方法适合您的应用程序,并探索可能遇到的一些挑战。
Baidu
map