**构建网络**
通过叠加`Dense`层来构建网络:
`keras.layers.Dense(512, activation='relu')` =![](https://img.kancloud.cn/6d/db/6ddb995db4baa6b87b38f78e22f926eb_254x143.png)
这个**层**(layers)就是一个函数
层的**权重**。权重是利用随机梯度下降学到的一个或多个张量,其中包含网络的**知识**。
**逐元素运算**(element-wise):该运算独立地应用于张量中的每个元素
```
#relu运算
def naive_relu(x):
assert len(x.shape) == 2
x = x.copy()
for i in range(x.shape[0]):
for j in range(x.shape[1]):
x[i, j] = max(x[i, j], 0)
return x
#加法
def naive_add(x, y):
assert len(x.shape) == 2
assert x.shape == y.shape
x = x.copy()
for i in range(x.shape[0]):
for j in range(x.shape[1]):
x[i, j] += y[i, j]
return x
```
**广播**(broadcast):(只出现在算法中,而没有发生在内存中)
两个形状不同的张量相加,较小的张量会被**广播**:
1. 向较小的张量添加轴(叫作**广播轴**),使其`ndim`与较大的张量相同。
2. 将较小的张量沿着新轴重复,使其形状与较大的张量相同。
*****
**张量积**(tensor produc,点积运算):~~‘*’逐元素乘积~~
`dot`运算符,实现点积 (只有元素个数相同的向量之间才能做点积)
~~~
np.dot(x, y) <=> x.y
~~~
**张量变形**(tensor reshaping):改变张量的行和列,以得到想要的形状
**转置**(transposition):将行和列互换
- 基础
- 张量tensor
- 整数序列(列表)=>张量
- 张量运算
- 张量运算的几何解释
- 层:深度学习的基础组件
- 模型:层构成的网络
- 训练循环 (training loop)
- 数据类型与层类型、keras
- Keras
- Keras 开发
- Keras使用本地数据
- fit、predict、evaluate
- K 折 交叉验证
- 二分类问题-基于梯度的优化-训练
- relu运算
- Dens
- 损失函数与优化器:配置学习过程的关键
- 损失-二分类问题
- 优化器
- 过拟合 (overfit)
- 改进
- 小结
- 多分类问题
- 回归问题
- 章节小结
- 机械学习
- 训练集、验证集和测试集
- 三种经典的评估方法
- 模型评估
- 如何准备输入数据和目标?
- 过拟合与欠拟合
- 减小网络大小
- 添加权重正则化
- 添加 dropout 正则化
- 通用工作流程
- 计算机视觉
- 卷积神经网络
- 卷积运算
- 卷积的工作原理
- 训练一个卷积神经网络
- 使用预训练的卷积神经网络
- VGG16
- VGG16详细结构
- 为什么不微调整个卷积基?
- 卷积神经网络的可视化
- 中间输出(中间激活)
- 过滤器
- 热力图
- 文本和序列
- 处理文本数据
- n-gram
- one-hot 编码 (one-hot encoding)
- 标记嵌入 (token embedding)
- 利用 Embedding 层学习词嵌入
- 使用预训练的词嵌入
- 循环神经网络
- 循环神经网络的高级用法
- 温度预测问题
- code
- 用卷积神经网络处理序列
- GRU 层
- LSTM层
- 多输入模型
- 回调函数
- ModelCheckpoint 与 EarlyStopping
- ReduceLROnPlateau
- 自定义回调函数
- TensorBoard_TensorFlow 的可视化框架
- 高级架构模式
- 残差连接
- 批标准化
- 批再标准化
- 深度可分离卷积
- 超参数优化
- 模型集成
- LSTM
- DeepDream
- 神经风格迁移
- 变分自编码器
- 生成式对抗网络
- 术语表