# 手写数字(mnist)
训练集为 60,000 张 28x28 像素灰度图像,测试集为 10,000 同规格图像,总共 10 类数字标签。
## 用法:
~~~
from AADeepLearning.datasets import mnist
import matplotlib.pyplot as plt
# mnist数据集已经被划分成了60,000个训练集,10,000个测试集的形式,按以下格式调用即可
(x_train, y_train), (x_test, y_test) = mnist.load_data()
# 画出minist 数字
fig = plt.figure()
plt.imshow(x_test[0],cmap = 'binary')#黑白显示
plt.show()
print('x_train shape:', x_train.shape)
print('y_train shape:', y_train.shape)
print('x_test shape:', x_test.shape)
print('y_test shape:', y_test.shape)
~~~
```
#输出
x_train shape: (60000, 28, 28)
y_train shape: (60000,)
x_test shape: (10000, 28, 28)
y_test shape: (10000,)
```
**返回:**
* 2 个元组:
* **x\_train, x\_test**: uint8 数组表示的灰度图像,尺寸为 (num\_samples, 28, 28)。
* **y\_train, y\_test**: uint8 数组表示的数字标签(范围在 0-9 之间的整数),尺寸为 (num\_samples,)。
- 序言
- 安装
- 快速体验
- 配置
- 层(layer)
- 展平(flatten)
- 全连接(fully connected)
- 卷积(convolutional)
- 池化(pooling)
- 标准化(batch normalization)
- 失活(dropout)
- 循环(RNN)
- 长短期记忆(LSTM)
- 激活函数(activation)
- relu
- sigmoid
- tanh
- 损失(loss)
- 交叉熵损失(softmax)
- 折页损失(SVM或Hinge)
- 优化器(optimizer)
- 带动量学习率自适应(adam)
- 动量(momentum)
- 学习率自适应(rmsprop)
- 随机梯度下降(sgd)
- 模型(model)
- 保存(save)
- 载入(reload)
- 继续训练(continue train)
- 数据集(datasets)
- 手写数字(mnist)
- 时尚物品(Fashion-MNIST)
- 10种物体分类(cifar10)
- 100种物体分类(cifar100)
- 电影评论情感分类(imdb)
- 路透社新闻主题分类(reuters)
- 可视化(visualization)
- 损失曲线(loss)
- 准确率曲线(accuracy)