# 6.2 循环神经网络
上一节介绍的`$ n $`元语法中,时间步`$ t $`的词`$ w_t $` 基于前面所有词的条件概率只考虑了最近时间步的`$ n-1 $`个词。如果要考虑比`$ t-(n-1) $`更早时间步的词对`$ w_t $`的可能影响,我们需要增大`$ n $`。但这样模型参数的数量将随之呈指数级增长。
本节将介绍循环神经网络。它并非刚性地记忆所有固定长度的序列,而是通过隐藏状态来存储之前时间步的信息。首先我们回忆一下前面介绍过的多层感知机,然后描述如何添加隐藏状态来将它变成循环神经网络。
## 6.2.1 不含隐藏状态的神经网络
让我们考虑一个含单隐藏层的多层感知机。给定样本数为`$ n $`、输入个数(特征数或特征向量维度)为`$ d $`的小批量数据样本`$ \boldsymbol{X} \in \mathbb{R}^{n \times d} $`。设隐藏层的激活函数为`$ \phi $`,那么隐藏层的输出`$ \boldsymbol{H} \in \mathbb{R}^{n \times h} $`计算为
```[tex]
\boldsymbol{H} = \phi(\boldsymbol{X} \boldsymbol{W}_{xh} + \boldsymbol{b}_h),
```
其中隐藏层权重参数`$ \boldsymbol{W}_{xh} \in \mathbb{R}^{d \times h} $`,隐藏层偏差参数 `$ \boldsymbol{b}_h \in \mathbb{R}^{1 \times h} $`,`$ h $`为隐藏单元个数。上式相加的两项形状不同,因此将按照广播机制相加。把隐藏变量`$ \boldsymbol{H} $`作为输出层的输入,且设输出个数为`$ q $`(如分类问题中的类别数),输出层的输出为
```[tex]
\boldsymbol{O} = \boldsymbol{H} \boldsymbol{W}_{hq} + \boldsymbol{b}_q,
```
其中输出变量`$ \boldsymbol{O} \in \mathbb{R}^{n \times q} $` , 输出层权重参数`$ \boldsymbol{W}_{hq} \in \mathbb{R}^{h \times q} $`, 输出层偏差参数`$ \boldsymbol{b}_q \in \mathbb{R}^{1 \times q} $`。如果是分类问题,我们可以使用`$ \text{softmax}(\boldsymbol{O}) $`来计算输出类别的概率分布。
## 6.2.2 含隐藏状态的循环神经网络
现在我们考虑输入数据存在时间相关性的情况。假设`$ \boldsymbol{X}_t \in \mathbb{R}^{n \times d} $`是序列中时间步`$ t $`的小批量输入,`$ \boldsymbol{H}_t \in \mathbb{R}^{n \times h} $`是该时间步的隐藏变量。与多层感知机不同的是,这里我们保存上一时间步的隐藏变量`$ \boldsymbol{H}_{t-1} $`,并引入一个新的权重参数`$ \boldsymbol{W}_{hh} \in \mathbb{R}^{h \times h} $`,该参数用来描述在当前时间步如何使用上一时间步的隐藏变量。具体来说,时间步`$ t $`的隐藏变量的计算由当前时间步的输入和上一时间步的隐藏变量共同决定:
```[tex]
\boldsymbol{H}_t = \phi(\boldsymbol{X}_t \boldsymbol{W}_{xh} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hh} + \boldsymbol{b}_h).
```
与多层感知机相比,我们在这里添加了`$ \boldsymbol{H}_{t-1} \boldsymbol{W}_{hh} $`一项。由上式中相邻时间步的隐藏变量`$ \boldsymbol{H}_t $`和 `$ \boldsymbol{H}_{t-1} $`之间的关系可知,这里的隐藏变量能够捕捉截至当前时间步的序列的历史信息,就像是神经网络当前时间步的状态或记忆一样。因此,该隐藏变量也称为隐藏状态。由于隐藏状态在当前时间步的定义使用了上一时间步的隐藏状态,上式的计算是循环的。使用循环计算的网络即循环神经网络(recurrent neural network)。
循环神经网络有很多种不同的构造方法。含上式所定义的隐藏状态的循环神经网络是极为常见的一种。若无特别说明,本章中的循环神经网络均基于上式中隐藏状态的循环计算。在时间步$t$,输出层的输出和多层感知机中的计算类似:
```[tex]
\boldsymbol{O}_t = \boldsymbol{H}_t \boldsymbol{W}_{hq} + \boldsymbol{b}_q.
```
循环神经网络的参数包括隐藏层的权重`$ \boldsymbol{W}_{xh} \in \mathbb{R}^{d \times h} $` 、`$ \boldsymbol{W}_{hh} \in \mathbb{R}^{h \times h} $`和偏差 `$ \boldsymbol{b}_h \in \mathbb{R}^{1 \times h} $`,以及输出层的权重`$ \boldsymbol{W}_{hq} \in \mathbb{R}^{h \times q} $`和偏差`$ \boldsymbol{b}_q \in \mathbb{R}^{1 \times q} $`。值得一提的是,即便在不同时间步,循环神经网络也始终使用这些模型参数。因此,循环神经网络模型参数的数量不随时间步的增加而增长。
图6.1展示了循环神经网络在3个相邻时间步的计算逻辑。在时间步`$ t $`,隐藏状态的计算可以看成是将输入`$ \boldsymbol{X}_t $`和前一时间步隐藏状态`$ \boldsymbol{H}_{t-1} $`连结后输入一个激活函数为`$ \phi $`的全连接层。该全连接层的输出就是当前时间步的隐藏状态`$ \boldsymbol{H}_t $`,且模型参数为`$ \boldsymbol{W}_{xh}$与$\boldsymbol{W}_{hh} $`的连结,偏差为`$ \boldsymbol{b}_h $`。当前时间步`$ t $`的隐藏状态`$ \boldsymbol{H}_t $`将参与下一个时间步`$ t +1 $`的隐藏状态`$ \boldsymbol{H}_{t+1} $`的计算,并输入到当前时间步的全连接输出层。
:-: ![](https://img.kancloud.cn/f8/c0/f8c0616c20e81b3eaa15279f4f1480ee.svg)
<div align=center>图6.1 含隐藏状态的循环神经网络</div>
我们刚刚提到,隐藏状态中`$ \boldsymbol{X}_t \boldsymbol{W}_{xh} + \boldsymbol{H}_{t-1} \boldsymbol{W}_{hh} $`的计算等价于`$ \boldsymbol{X}_t $`与`$ \boldsymbol{H}_{t-1} $`连结后的矩阵乘以`$ \boldsymbol{W}_{xh} $`与`$ \boldsymbol{W}_{hh} $`连结后的矩阵。接下来,我们用一个具体的例子来验证这一点。首先,我们构造矩阵`X`、`W_xh`、`H`和`W_hh`,它们的形状分别为(3, 1)、(1, 4)、(3, 4)和(4, 4)。将`X`与`W_xh`、`H`与`W_hh`分别相乘,再把两个乘法运算的结果相加,得到形状为(3, 4)的矩阵。
``` python
import torch
X, W_xh = torch.randn(3, 1), torch.randn(1, 4)
H, W_hh = torch.randn(3, 4), torch.randn(4, 4)
torch.matmul(X, W_xh) + torch.matmul(H, W_hh)
```
输出:
```
tensor([[ 5.2633, -3.2288, 0.6037, -1.3321],
[ 9.4012, -6.7830, 1.0630, -0.1809],
[ 7.0355, -2.2361, 0.7469, -3.4667]])
```
将矩阵`X`和`H`按列(维度1)连结,连结后的矩阵形状为(3, 5)。可见,连结后矩阵在维度1的长度为矩阵`X`和`H`在维度1的长度之和(`$ 1+4 $`)。然后,将矩阵`W_xh`和`W_hh`按行(维度0)连结,连结后的矩阵形状为(5, 4)。最后将两个连结后的矩阵相乘,得到与上面代码输出相同的形状为(3, 4)的矩阵。
``` python
torch.matmul(torch.cat((X, H), dim=1), torch.cat((W_xh, W_hh), dim=0))
```
输出:
```
tensor([[ 5.2633, -3.2288, 0.6037, -1.3321],
[ 9.4012, -6.7830, 1.0630, -0.1809],
[ 7.0355, -2.2361, 0.7469, -3.4667]])
```
## 6.2.3 应用:基于字符级循环神经网络的语言模型
最后我们介绍如何应用循环神经网络来构建一个语言模型。设小批量中样本数为1,文本序列为“想”“要”“有”“直”“升”“机”。图6.2演示了如何使用循环神经网络基于当前和过去的字符来预测下一个字符。在训练时,我们对每个时间步的输出层输出使用softmax运算,然后使用交叉熵损失函数来计算它与标签的误差。在图6.2中,由于隐藏层中隐藏状态的循环计算,时间步3的输出`$ \boldsymbol{O}_3 $`取决于文本序列“想”“要”“有”。 由于训练数据中该序列的下一个词为“直”,时间步3的损失将取决于该时间步基于序列“想”“要”“有”生成下一个词的概率分布与该时间步的标签“直”。
:-: ![](https://img.kancloud.cn/d7/8d/d78dc7474c4701442e4640a2bad7df98.svg)
<div align=center>图6.2 基于字符级循环神经网络的语言模型。</div>
因为每个输入词是一个字符,因此这个模型被称为字符级循环神经网络(character-level recurrent neural network)。因为不同字符的个数远小于不同词的个数(对于英文尤其如此),所以字符级循环神经网络的计算通常更加简单。在接下来的几节里,我们将介绍它的具体实现。
## 小结
* 使用循环计算的网络即循环神经网络。
* 循环神经网络的隐藏状态可以捕捉截至当前时间步的序列的历史信息。
* 循环神经网络模型参数的数量不随时间步的增加而增长。
* 可以基于字符级循环神经网络来创建语言模型。
-----------
> 注:除代码外本节与原书此节基本相同,[原书传送门](https://zh.d2l.ai/chapter_recurrent-neural-networks/rnn.html)
- Home
- Introduce
- 1.深度学习简介
- 深度学习简介
- 2.预备知识
- 2.1环境配置
- 2.2数据操作
- 2.3自动求梯度
- 3.深度学习基础
- 3.1 线性回归
- 3.2 线性回归的从零开始实现
- 3.3 线性回归的简洁实现
- 3.4 softmax回归
- 3.5 图像分类数据集(Fashion-MINST)
- 3.6 softmax回归的从零开始实现
- 3.7 softmax回归的简洁实现
- 3.8 多层感知机
- 3.9 多层感知机的从零开始实现
- 3.10 多层感知机的简洁实现
- 3.11 模型选择、反向传播和计算图
- 3.12 权重衰减
- 3.13 丢弃法
- 3.14 正向传播、反向传播和计算图
- 3.15 数值稳定性和模型初始化
- 3.16 实战kaggle比赛:房价预测
- 4 深度学习计算
- 4.1 模型构造
- 4.2 模型参数的访问、初始化和共享
- 4.3 模型参数的延后初始化
- 4.4 自定义层
- 4.5 读取和存储
- 4.6 GPU计算
- 5 卷积神经网络
- 5.1 二维卷积层
- 5.2 填充和步幅
- 5.3 多输入通道和多输出通道
- 5.4 池化层
- 5.5 卷积神经网络(LeNet)
- 5.6 深度卷积神经网络(AlexNet)
- 5.7 使用重复元素的网络(VGG)
- 5.8 网络中的网络(NiN)
- 5.9 含并行连结的网络(GoogLeNet)
- 5.10 批量归一化
- 5.11 残差网络(ResNet)
- 5.12 稠密连接网络(DenseNet)
- 6 循环神经网络
- 6.1 语言模型
- 6.2 循环神经网络
- 6.3 语言模型数据集(周杰伦专辑歌词)
- 6.4 循环神经网络的从零开始实现
- 6.5 循环神经网络的简单实现
- 6.6 通过时间反向传播
- 6.7 门控循环单元(GRU)
- 6.8 长短期记忆(LSTM)
- 6.9 深度循环神经网络
- 6.10 双向循环神经网络
- 7 优化算法
- 7.1 优化与深度学习
- 7.2 梯度下降和随机梯度下降
- 7.3 小批量随机梯度下降
- 7.4 动量法
- 7.5 AdaGrad算法
- 7.6 RMSProp算法
- 7.7 AdaDelta
- 7.8 Adam算法
- 8 计算性能
- 8.1 命令式和符号式混合编程
- 8.2 异步计算
- 8.3 自动并行计算
- 8.4 多GPU计算
- 9 计算机视觉
- 9.1 图像增广
- 9.2 微调
- 9.3 目标检测和边界框
- 9.4 锚框
- 10 自然语言处理
- 10.1 词嵌入(word2vec)
- 10.2 近似训练
- 10.3 word2vec实现
- 10.4 子词嵌入(fastText)
- 10.5 全局向量的词嵌入(Glove)
- 10.6 求近义词和类比词
- 10.7 文本情感分类:使用循环神经网络
- 10.8 文本情感分类:使用卷积网络
- 10.9 编码器--解码器(seq2seq)
- 10.10 束搜索
- 10.11 注意力机制
- 10.12 机器翻译