# [机器学习公开课笔记(5):神经网络(Neural Network)——学习](https://www.cnblogs.com/python27/p/MachineLearningWeek05.html)
这一章可能是Andrew Ng讲得最不清楚的一章,为什么这么说呢?这一章主要讲后向传播(Backpropagration, BP)算法,Ng花了一大半的时间在讲如何计算误差项δ
,如何计算Δ
的矩阵,以及如何用Matlab去实现后向传播,然而最关键的问题——为什么要这么计算?前面计算的这些量到底代表着什么,Ng基本没有讲解,也没有给出数学的推导的例子。所以这次内容我不打算照着公开课的内容去写,在查阅了许多资料后,我想先从一个简单的神经网络的梯度推导入手,理解后向传播算法的基本工作原理以及每个符号代表的实际意义,然后再按照课程的给出BP计算的具体步骤,这样更有助于理解。
## 简单神经网络的后向传播(Backpropagration, BP)算法
### 1\. 回顾之前的前向传播(ForwardPropagration, FP)算法
FP算法还是很简单的,说白了就是根据前一层神经元的值,先加权然后取sigmoid函数得到后一层神经元的值,写成数学的形式就是:
a(1)\=X
z(2)\=Θ(1)a(1)
a(2)\=g(z(2))
z(3)\=Θ(2)a(2)
a(3)\=g(z(3))
z(4)\=Θ(3)a(3)
a(4)\=g(z(4))
### 2\. 回顾神经网络的代价函数(不含regularization项)
J(Θ)\=−1m\[∑i\=1m∑k\=1Ky(i)klog(hθ(x(i)))k+(1−y(i)k)log(1−(hθ(x(i)))k)\]
### 3\. 一个简单神经网络的BP推导过程
BP算法解决了什么问题?我们已经有了代价函数J(Θ)
,接下来我们需要利用梯度下降算法(或者其他高级优化算法)对J(Θ)进行优化从而得到训练参数Θ,然而关键问题是,优化算法需要传递两个重要的参数,一个代价函数J(Θ),另一个是代价函数的梯度∂J(Θ)∂Θ
,**BP算法其实就是解决如何计算梯度的问题**。
下面我们从一个简单的例子入手考虑如何从数学上计算代价函数的梯度,考虑如下简单的神经网络(为方便起见,途中已经给出了前向传播(FP)的计算过程),该神经网络有三层神经元,对应的有两个权重矩阵Θ(1)
和Θ(2),为计算梯度我们只需要计算两个偏导数即可:∂J(Θ)∂Θ(1)和∂J(Θ)∂Θ(2)
。
![](https://images2015.cnblogs.com/blog/353956/201512/353956-20151226223814734-358205723.png)
首先我们先计算第2个权重矩阵的偏导数,即∂∂Θ(2)J(Θ)
。首先我们需要在J(Θ)和Θ(2)之间建立联系,很容易可以看到J(Θ)的值取决于hθ(x),而hθ(x)\=a(3), a3又是由z(3)取sigmoid得到,最后z(3)\=Θ(2)×a(2)
,所以他们之间的联系可以如下表示:
![](https://images2015.cnblogs.com/blog/353956/201512/353956-20151227220139874-363481182.png)
按照求导的链式法则,我们可以先求J(Θ)
对z(3)的导数,然后乘以z(3)对Θ(2)
的导数,即
∂∂Θ(2)J(Θ)\=∂∂z(3)J(Θ)×∂z(3)∂Θ(2)
由z(3)\=Θ(2)a(2)
不难计算∂z(3)∂Θ(2)\=(a(2))T,令∂∂z(3)J(Θ)\=δ(3)
,上式可以重写为
∂∂Θ(2)J(Θ)\=δ(3)(a(2))T
接下来仅需要计算δ(3)
即可,由上一章的内容我们已经知道g′(z)\=g(z)(1−g(z)), hθ(x)\=a(3)\=g(z(3)),忽略前面的1/m∑i\=1m
(这里我们只对一个example推导,最后累加即可)
δ(3)\=∂J(Θ)z(3)\=(−y)1g(z(3))g′(z(3))−(1−y)11−g(z(3))\[1−g(z(3))\]′\=−y(1−g(z(3)))+(1−y)g(z(3))\=−y+g(z(3))\=−y+a(3)
至此我们已经得到J(Θ)
对Θ(2)
的偏导数,即
∂J(Θ)∂Θ(2)\=(a(2))Tδ(3)
δ(3)\=a(3)−y
接下来我们需要求J(Θ)
对Θ(1)的偏导数,J(Θ)对Θ(1)
的依赖关系如下:
![](https://images2015.cnblogs.com/blog/353956/201512/353956-20151226203424015-1301030076.png)
根据链式求导法则有
∂J(Θ)∂Θ(1)\=∂J(Θ)∂z(3)∂z(3)∂a(2)∂a(2)∂Θ(1)
我们分别计算等式右边的三项可得:
∂J(Θ)∂z(3)\=δ(3)
∂z(3)∂a(2)\=(Θ(2))T
∂a(2)∂Θ(1)\=∂a(2)∂z(2)∂z(2)∂Θ(1)\=g′(z(2))a(1)
带入后得
∂J(Θ)∂Θ(1)\=(a(1))Tδ(3)(Θ(2))Tg′(z(2))
令δ(2)\=δ(3)(Θ(2))Tg′(z(2))
, 上式可以重写为
∂J(Θ)∂Θ(1)\=(a(1))Tδ(2)
δ(2)\=δ(3)(Θ(2))Tg′(z(2))
把上面的结果放在一起,我们得到J(Θ)
对两个权重矩阵的偏导数为:
δ(3)\=a(3)−y
∂J(Θ)∂Θ(2)\=(a(2))Tδ(3)
δ(2)\=δ(3)(Θ(2))Tg′(z(2))
∂J(Θ)∂Θ(1)\=(a(1))Tδ(2)
观察上面的四个等式,我们发现
* 偏导数可以由当前层神经元向量a(l)
与下一层的误差向量δ(l+1)* 相乘得到
* 当前层的误差向量δ(l)
可以由下一层的误差向量δ(l+1)与权重矩阵Δl
* 的乘积得到
所以可以从后往前逐层计算误差向量(这就是***后向传播***的来源),然后通过简单的乘法运算得到代价函数对每一层权重矩阵的偏导数。到这里算是终于明白为什么要计算误差向量,以及为什么误差向量之间有递归关系了。尽管这里的神经网络十分简单,推导过程也不是十分严谨,但是通过这个简单的例子,基本能够理解后向传播算法的工作原理了。
## 严谨的后向传播算法(计算梯度)
假设我们有m
个训练example,L
层神经网络,并且此处考虑正则项,即
J(Θ)\=−1m\[∑i\=1m∑k\=1Ky(i)klog(hθ(x(i)))k+(1−y(i)k)log(1−(hθ(x(i)))k)\]+λ2m∑l\=1L−1∑i\=1sl∑j\=1sl+1(Θ(l)ji)2
初始化:设置Δ(l)ij\=0
(理解为对第l
层的权重矩阵的偏导累加值)
For i = 1 : m
* 设置 a(1)\=X
* 通过前向传播算法(FP)计算对各层的预测值a(l)
,其中l\=2,3,4,…,L
* 计算最后一层的误差向量 δ(L)\=a(L)−y
,利用后向传播算法(BP)从后至前逐层计算误差向量 δ(L−1),δ(L−1),…,δ(2), 计算公式为δ(l)\=(Θ(l))Tδ(l+1).∗g′(z(l))
* 更新Δ(l)\=Δ(l)+δ(l+1)(a(l))T
end // for
计算梯度:
D(l)ij\=1mΔ(l)ij,j\=0
D(l)ij\=1mΔ(l)ij+λmΘ(l)ij,j≠0
∂J(Θ)∂Θ(l)\=D(l)
## BP实际运用中的技巧
### 1\. 将参数展开成向量
对于四层三个权重矩阵参数Θ(1),Θ(2),Θ(3)
将其展开成一个参数向量,Matlab code如下:
1thetaVec = [Theta1(:); Theta2(:); Theta3(:)];
### 2\. 梯度检查
为了保证梯度计算的正确性,可以用数值解进行检查,根据导数的定义
dJ(θ)dθ≈J(θ+ϵ)−J(θ−ϵ)2ϵ
Matlab Code 如下
1234567for i = 1 : n thetaPlus = theta; thetaPlus(i) = thetaPlus(i) + EPS; thetaMinus = theta; thetaMinus(i) = thetaMinus(i) - EPS; gradApprox(i) = (J(thetaPlus) - J(thetaMinus)) / (2 * EPS);end
最后检查 gradApprox 是否约等于之前计算的梯度值即可。需要注意的是:因为近似的梯度计算代价很大,在梯度检查后记得**关闭梯度检查**的代码。
### 3\. 随机初始化
初始权重矩阵的初始化应该打破对称性 (symmetry breaking),避免使用全零矩阵进行初始化。可以采用随机数进行初始化,即 Θ(l)ij∈\[−ϵ,+ϵ\]
## 如何训练一个神经网络
1. 随机初始化权重矩阵
2. 利用前向传播算法(FP)计算模型预测值hθ(x)
* 计算代价函数J(Θ)
* 利用后向传播算法(BP)计算代价函数的梯度 ∂J(Θ)∂Θ(l)
* 利用数值算法进行梯度检查(gradient checking),**确保正确后关闭梯度检查**
* 利用梯度下降(或者其他优化算法)求得最优参数Θ
## 附:一个简短的后向传播
- BP神经网络到c++实现等--机器学习“掐死教程”
- 训练bp(神经)网络学会“乘法”--用”蚊子“训练高射炮
- Ann计算异或&前馈神经网络20200302
- 神经网络ANN的表示20200312
- 简单神经网络的后向传播(Backpropagration, BP)算法
- 牛顿迭代法求局部最优(解)20200310
- ubuntu安装numpy和pip3等
- 从零实现一个神经网络-numpy篇01
- _美国普林斯顿大学VictorZhou神经网络神文的改进和翻译20200311
- c语言-普林斯顿victorZhou神经网络实现210301
- bp网络实现xor异或的C语言实现202102
- bp网络实现xor异或-自动录入输入(写死20210202
- Mnist在python3.6上跑tensorFlow2.0一步一坑20210210
- numpy手写数字识别-直接用bp网络识别210201