~~~
Dense(16,activation='relu')
~~~
> 传入Dense层的参数(16)是该层**隐藏单元**的个数。一个隐藏单元(hidden unit)是该层表示空间的一个**维度**。
16个隐藏单元对应的**权重矩阵**W的**形状**为**(input_dimension,16)**,与W做****点积****相当于将输入数据****投影****到16维表示空间中(然后再加上偏置向量b并应用relu运算)。
>
```
output = relu(dot(W, input) + b)
```
> `W`和`b`都是张量,均为该层的属性。它们被称为该层的**权重**(weight)或**可训练参数**(trainable parameter),分别对应`kernel`和`bias`属性。
>
**随机初始化**:初始时`W`和`b`都是随机的。
**训练**:根据反馈信号逐渐调节这些权重。这个逐渐调节的过程。**机器学习中的学习**
**优化方法**(optimization method)或**优化器**(optimizer):
SGD 还有多种变体,其区别在于计算下一次权重更新时还要考虑上一次权重更新,而不是仅仅考虑当前梯度值,比如带动量的 SGD、Adagrad、RMSProp 等变体
**动量**
**链式法则**(chain rule):`(f(g(x)))' = f'(g(x)) * g'(x)`
**反向传播**(backpropagation,有时也叫**反式微分**,reverse-mode differentiation):将链式法则应用于神经网络梯度值的计算而得到的算法。
从最终损失值开始,从最顶层反向作用至最底层,利用**链式法则**计算每个参数对损失值的贡献大小。
*****
使用能够进行**符号微分**(symbolic differentiation)的现代框架来实现神经网络,如**TensorFlow**
*****
- 基础
- 张量tensor
- 整数序列(列表)=>张量
- 张量运算
- 张量运算的几何解释
- 层:深度学习的基础组件
- 模型:层构成的网络
- 训练循环 (training loop)
- 数据类型与层类型、keras
- Keras
- Keras 开发
- Keras使用本地数据
- fit、predict、evaluate
- K 折 交叉验证
- 二分类问题-基于梯度的优化-训练
- relu运算
- Dens
- 损失函数与优化器:配置学习过程的关键
- 损失-二分类问题
- 优化器
- 过拟合 (overfit)
- 改进
- 小结
- 多分类问题
- 回归问题
- 章节小结
- 机械学习
- 训练集、验证集和测试集
- 三种经典的评估方法
- 模型评估
- 如何准备输入数据和目标?
- 过拟合与欠拟合
- 减小网络大小
- 添加权重正则化
- 添加 dropout 正则化
- 通用工作流程
- 计算机视觉
- 卷积神经网络
- 卷积运算
- 卷积的工作原理
- 训练一个卷积神经网络
- 使用预训练的卷积神经网络
- VGG16
- VGG16详细结构
- 为什么不微调整个卷积基?
- 卷积神经网络的可视化
- 中间输出(中间激活)
- 过滤器
- 热力图
- 文本和序列
- 处理文本数据
- n-gram
- one-hot 编码 (one-hot encoding)
- 标记嵌入 (token embedding)
- 利用 Embedding 层学习词嵌入
- 使用预训练的词嵌入
- 循环神经网络
- 循环神经网络的高级用法
- 温度预测问题
- code
- 用卷积神经网络处理序列
- GRU 层
- LSTM层
- 多输入模型
- 回调函数
- ModelCheckpoint 与 EarlyStopping
- ReduceLROnPlateau
- 自定义回调函数
- TensorBoard_TensorFlow 的可视化框架
- 高级架构模式
- 残差连接
- 批标准化
- 批再标准化
- 深度可分离卷积
- 超参数优化
- 模型集成
- LSTM
- DeepDream
- 神经风格迁移
- 变分自编码器
- 生成式对抗网络
- 术语表